Photo by Glen Carrie on Unsplash
Anthropic Ujawnia, że Hacker Wykorzystał Jego Chatbota do Cyberataków
Firma zajmująca się sztuczną inteligencją, Anthropic, wydała w środę nowy raport dotyczący cyberbezpieczeństwa, ujawniając, że złośliwi użytkownicy wykorzystywali jej model AI, Claude, do skomplikowanych działań przestępczych. Start-up poinformował, że jeden z hakerów niedawno zaatakował około 17 organizacji, wykorzystując nową technikę znane jako „vibe hacking”.
W pośpiechu? Oto najważniejsze informacje:
- Anthropic ujawniło, że hakerzy wykorzystywali jej model AI o nazwie Claude do przeprowadzania zaawansowanych operacji przestępczych.
- Start-up podzielił się przypadkiem, w którym złośliwy podmiot użył Koda Claude z Korei Północnej do przeprowadzenia ataków ransomware, które miały na celu około 17 organizacji.
- Start-up ostrzega przed pojawiającymi się przypadkami „hakowania nastroju”.
Według ogłoszenia Anthropic, firma wprowadziła szereg środków bezpieczeństwa, aby zapobiec nadużyciom technologii, ale cyberprzestępcy znaleźli sposoby na jej wykorzystanie.
W jednym z opisanych przypadków, startup ujawnił dużą operację kryminalną, w której haker z podstawowymi umiejętnościami kodowania, wykorzystał Claude Code – narzędzie do kodowania agentycznego – do przeprowadzenia oszukańczego schematu pochodzącego z Korei Północnej.
„Modele AI są teraz używane do przeprowadzania zaawansowanych ataków cybernetycznych, a nie tylko do doradzania, jak je przeprowadzić” – czytamy w komunikacie. „Przestępcy z niewielkimi umiejętnościami technicznymi wykorzystują AI do przeprowadzania skomplikowanych operacji, takich jak tworzenie ransomware, które wcześniej wymagałyby lat szkolenia”.
W głównym przedstawionym przypadku, haker użył Claude Code do kradzieży danych z 17 organizacji, w tym służb ratowniczych, agencji rządowych, dostawców opieki zdrowotnej i instytucji religijnych. Złośliwy sprawca następnie wymuszał na ofiarach okup, w niektórych przypadkach żądając ponad 500 000 dolarów.
Anthropic poinformowało, że jego agent AI został użyty do decydowania, jakie dane wydobyć, tworzenia wiadomości wymuszających okup, a nawet sugerowania kwot okupu dostosowanych do każdej ofiary.
„Aktor wykorzystał SI do stopnia, który uważamy za bezprecedensowy” – głosi komunikat. „To stanowi ewolucję w cyberprzestępstwach wspomaganych przez SI”.
Firma poinformowała, że jak tylko wykryła szkodliwe działania, zablokowała konta i opracowała nowe narzędzia do przesiewania i wykrywania, aby zapobiec podobnym przypadkom w przyszłości. Więcej szczegółów zawarto w pełnym raporcie.
Anthropic ostrzegała również przed pojawiającymi się technikami „hakowania atmosfery”. „Spodziewamy się, że ataki tego typu staną się coraz bardziej powszechne, ponieważ programowanie z pomocą sztucznej inteligencji obniża poziom technicznej wiedzy potrzebnej do przestępstw cybernetycznych” – zauważyła firma.
Na koniec, Anthropic podkreśliło rosnącą integrację sztucznej inteligencji w istniejące schematy cyberprzestępstw, podając przykłady takie jak oszustwo północnokoreańskich pracowników IT zgłoszone w kwietniu, w którym hakerzy kradli tożsamość obywateli amerykańskich, aby zdobyć zdalne miejsca pracy w Stanach Zjednoczonych.