Anthropic Ujawnia, że Hacker Wykorzystał Jego Chatbota do Cyberataków

Photo by Glen Carrie on Unsplash

Anthropic Ujawnia, że Hacker Wykorzystał Jego Chatbota do Cyberataków

Przeczytasz w: 2 min

Firma zajmująca się sztuczną inteligencją, Anthropic, wydała w środę nowy raport dotyczący cyberbezpieczeństwa, ujawniając, że złośliwi użytkownicy wykorzystywali jej model AI, Claude, do skomplikowanych działań przestępczych. Start-up poinformował, że jeden z hakerów niedawno zaatakował około 17 organizacji, wykorzystując nową technikę znane jako „vibe hacking”.

W pośpiechu? Oto najważniejsze informacje:

  • Anthropic ujawniło, że hakerzy wykorzystywali jej model AI o nazwie Claude do przeprowadzania zaawansowanych operacji przestępczych.
  • Start-up podzielił się przypadkiem, w którym złośliwy podmiot użył Koda Claude z Korei Północnej do przeprowadzenia ataków ransomware, które miały na celu około 17 organizacji.
  • Start-up ostrzega przed pojawiającymi się przypadkami „hakowania nastroju”.

Według ogłoszenia Anthropic, firma wprowadziła szereg środków bezpieczeństwa, aby zapobiec nadużyciom technologii, ale cyberprzestępcy znaleźli sposoby na jej wykorzystanie.

W jednym z opisanych przypadków, startup ujawnił dużą operację kryminalną, w której haker z podstawowymi umiejętnościami kodowania, wykorzystał Claude Code – narzędzie do kodowania agentycznego – do przeprowadzenia oszukańczego schematu pochodzącego z Korei Północnej.

„Modele AI są teraz używane do przeprowadzania zaawansowanych ataków cybernetycznych, a nie tylko do doradzania, jak je przeprowadzić” – czytamy w komunikacie. „Przestępcy z niewielkimi umiejętnościami technicznymi wykorzystują AI do przeprowadzania skomplikowanych operacji, takich jak tworzenie ransomware, które wcześniej wymagałyby lat szkolenia”.

W głównym przedstawionym przypadku, haker użył Claude Code do kradzieży danych z 17 organizacji, w tym służb ratowniczych, agencji rządowych, dostawców opieki zdrowotnej i instytucji religijnych. Złośliwy sprawca następnie wymuszał na ofiarach okup, w niektórych przypadkach żądając ponad 500 000 dolarów.

Anthropic poinformowało, że jego agent AI został użyty do decydowania, jakie dane wydobyć, tworzenia wiadomości wymuszających okup, a nawet sugerowania kwot okupu dostosowanych do każdej ofiary.

„Aktor wykorzystał SI do stopnia, który uważamy za bezprecedensowy” – głosi komunikat. „To stanowi ewolucję w cyberprzestępstwach wspomaganych przez SI”.

Firma poinformowała, że jak tylko wykryła szkodliwe działania, zablokowała konta i opracowała nowe narzędzia do przesiewania i wykrywania, aby zapobiec podobnym przypadkom w przyszłości. Więcej szczegółów zawarto w pełnym raporcie.

Anthropic ostrzegała również przed pojawiającymi się technikami „hakowania atmosfery”. „Spodziewamy się, że ataki tego typu staną się coraz bardziej powszechne, ponieważ programowanie z pomocą sztucznej inteligencji obniża poziom technicznej wiedzy potrzebnej do przestępstw cybernetycznych” – zauważyła firma.

Na koniec, Anthropic podkreśliło rosnącą integrację sztucznej inteligencji w istniejące schematy cyberprzestępstw, podając przykłady takie jak oszustwo północnokoreańskich pracowników IT zgłoszone w kwietniu, w którym hakerzy kradli tożsamość obywateli amerykańskich, aby zdobyć zdalne miejsca pracy w Stanach Zjednoczonych.

Spodobał Ci się ten artykuł? Oceń go!
Był okropny Nie podobał mi się Był w porządku Był całkiem dobry! Był super!

Cieszymy się, że doceniasz to, co robimy!

Cenimy Twoją opinię. Czy możemy liczyć na ocenę na Trustpilot? Zajmie Ci to tylko chwilę. Będziemy zobowiązani. Dziękujemy za wsparcie!

Oceń nas na Trustpilot
0 Na podstawie głosów 0 użytkowników
Tytuł
Komentarz
Dziękujemy za Twoją opinię