Image generated with ChatGPT
OPINIA: „Vibe Hacking” – Nowe zagrożenie dla bezpieczeństwa cybernetycznego zasilane przez sztuczną inteligencję
Eksperci od miesięcy ostrzegają przed niebezpieczeństwem „manipulacji wibracjami”, ale do tej pory nie odnotowano żadnego znaczącego przypadku. Anthropic opublikowało raport, ujawniając, jak złoczyńcy wykorzystują jego zaawansowane modele AI do automatyzacji ataków cybernetycznych.
Firmy technologiczne promują generatywną sztuczną inteligencję jako panaceum na wszystko, od codziennego życia po cyberbezpieczeństwo. Ale zaawansowana technologia zawsze ma dwa oblicza: narzędzia AI mogą być używane do dobra – lub do zła. I w obu przypadkach zwykle nas zaskakują.
Było tylko kwestią czasu, zanim hakerzy zaczęli wykorzystywać potężne modele AI i narzędzia oparte na AI, które zostały wydane w tym roku.
Kilka miesięcy temu, wszyscy mówili o „vibe coding” i o tym, jak nowe systemy AI umożliwiły osobom bez doświadczenia w kodowaniu tworzenie stron internetowych i aplikacji po prostu przez pisanie skutecznych poleceń.
Teraz stoimy w obliczu jego złośliwego bliźniaka: „hakowania wibracji”. Cyberprzestępcy o niewielkiej wiedzy na temat rozwoju oprogramowania tworzą złośliwe narzędzia zdolne do ogromnego wpływu na społeczeństwo.
Anthropic opublikowało swój pierwszy raport na temat „hakowania wibracji” w swoim Raporcie Wywiadu Strategicznego: Sierpień 2025, ujawniając, jak złośliwi aktorzy nadużywali jego najbardziej zaawansowanych modeli AI do prowadzenia skomplikowanych działań przestępczych.
Od generowania spersonalizowanych listów okupnych dla ofiar, poprzez budowanie platform Ransomware-as-a-Service (RaaS), aż po prowadzenie hakerów krok po kroku przez skomplikowane cyberataki – to jest to, co ludzie powinni wiedzieć o „vibe hackingu”.
Co to jest „vibe hacking”?
Termin „vibe hacking” niedawno został przyjęty, aby odnosić się do nowej taktyki zagrożenia: złośliwi sprawcy wykorzystują zaawansowane modele AI, aby przeprowadzać skomplikowane, na dużą skalę cyberataki. Nawet bez głębokiej wiedzy technicznej, hakerom udaje się ominąć środki bezpieczeństwa i używać potężnych agentów AI do wykonania skomplikowanych operacji w ich imieniu.
W czerwcu, WIRED poinformował, że „hakowanie nastroju” staje się coraz większym problemem wśród ekspertów od AI. Narzędzia takie jak WormGPT i FraudGPT – systemy AI zbudowane bez etycznych zabezpieczeń – krążą od 2023 roku i są już w rękach niebezpiecznych osób.
Eksperci zauważyli również, że odblokowywanie nowatorskich modeli AI stało się częścią codziennej rutyny hakerów. Mimo to, pomysł masowych ataków sterowanych przez AI wciąż był kilka miesięcy temu czysto hipotetyczny. „Porównuję to do sytuacji awaryjnego lądowania samolotu, kiedy słyszymy ‚przygotować się, przygotować się, przygotować się’, ale nadal nie doszło do żadnej kolizji” – powiedziała Hayden Smith, współzałożycielka firmy zabezpieczeń Hunted Labs, w wywiadzie dla WIRED.
Teraz, samolot wylądował.
Nadszedł Era Hakerów Atmosfery
W swoim najnowszym raporcie, Anthropic ujawniło, że pojedynczy haker, działający z Korei Północnej tylko z podstawowymi umiejętnościami kodowania, zdołał zaatakować 17 organizacji na całym świecie – w tym agencje rządowe, dostawców opieki zdrowotnej, instytucje religijne, a nawet służby ratownicze.
Napastnik polegał na narzędziu do kodowania agentycznego Anthropic, Claude Code, aby przeprowadzić kampanię. System AI doradzał, jakie dane wydobyć, opracowywał wiadomości z żądaniem okupu, a nawet sugerował wysokość żądań okupu – czasami rekomendując kwoty przekraczające 500 000 dolarów.
„Użytkownik wykorzystał AI do tego, co uważamy za bezprecedensowy stopień,” napisał Anthropic w swoim ogłoszeniu w zeszłym tygodniu. „To stanowi ewolucję w przestępczości cybernetycznej wspomaganej przez AI.”
Autonomiczne Asystenty Hackerów AI
Cyberprzestępcy od lat eksperymentują z AI. To, co wyróżnia „hakowanie nastroju”, polega na tym, że teraz to technologia wykonuje za nich większość ciężkiej pracy.
Śledztwo Anthropic wykazało, że niegodziwi aktorzy wykorzystują Claude Code na wiele sposobów: rozwijają złośliwe oprogramowanie, krok po kroku kierują atakujących podczas operacji na żywo, organizują i analizują ogromne ilości skradzionych danych, a nawet automatyzują wiadomości wymuszające dostosowane do słabości każdej ofiary.
W jednym przypadku, użytkownik z Wielkiej Brytanii zdołał nakłonić Claude’a do stworzenia oprogramowania – i to nie byle jakiego, lecz komercyjnego produktu ransomware. Sztuczna inteligencja wygenerowała platformę ransomware-as-a-service (RaaS) zaprojektowaną, aby pomóc użytkownikowi sprzedawać ransomware na forach takich jak CryptBB, Dread i Nulle, znane z umożliwiania nielegalnych działań.
Najbardziej szokujące? Użytkownik zdawał się nie do końca rozumieć, co robi, ponieważ często prosił o pomoc system AI Anthropic.
„Operacja obejmuje rozwijanie wielu wariantów ransomware, wykorzystujących szyfrowanie ChaCha20, techniki przeciwdziałające EDR i wykorzystanie wewnętrznych zasobów systemu Windows” – mówi badanie. „Najbardziej niepokojąca jest widoczna zależność aktora od AI – wydają się niezdolni do implementacji skomplikowanych komponentów technicznych lub rozwiązywania problemów bez pomocy AI, a mimo to sprzedają skuteczne malware.”
Zadania, które kiedyś wymagały od zespołów wykwalifikowanych hakerów miesięcy – a nawet lat – aby je zakończyć, są teraz obsługiwane przez modele AI, które mogą pomagać pojedynczemu cyberprzestępcy na każdym etapie procesu.
Systemy AI manipulowane i używane jako broń
Szkodliwy wpływ modeli AI na ludzi stał się już poważnym i pilnym problemem w ostatnich miesiącach, począwszy od psychoz i samobójstw związanych z AI, po rosnące wzorce uzależnień. Chociaż wiele uwagi skupiono na tym, jak AI szkodzi ludziom, mniej uwagi poświęcono na odwrotność: jak ludzie mogą manipulować modelami AI, a w konsekwencji, używać ich do szkodzenia innym.
Kilka dni temu, badacze z University of Pennsylvania opublikowali studium pokazujące, że modele AI są alarmująco podatne na perswazję i pochlebstwo. Odkryli, że modele takie jak OpenAI’s GPT-4o mini mogą paść ofiarą taktyk inżynierii społecznej i wykazywać „para-ludzkie” zachowanie – co oznacza, że, ponieważ są one trenowane na ludzkim zachowaniu, również replikują ludzkie słabości, jeśli chodzi o manipulację.
GPT-4o uległo popularnym zasadom perswazji, na które ludzie zazwyczaj wpadają, i ujawniło informacje, których nie powinno udostępniać – dane, które pozostały niedostępne przez bardziej tradycyjne wskazówki.
Anthropic, z kolei, nie ujawniło konkretnych wskazówek, które hakerzy użyli do złamania swojego agenta AI, ani nie szczegółowo opisało, w jaki sposób system został zmanipulowany do wspomagania zaawansowanych ataków cybernetycznych. Niemniej jednak, najnowsze badania sugerują, że te modele mogą być znacznie bardziej narażone, niż większość ludzi zakłada. Miejmy nadzieję – trzymając kciuki – że teraz udokumentowane podatności już nie będą do wykorzystania.
Od pisania eseju do hakowania międzynarodowych organizacji
Pamiętasz, kiedy największą troską związaną z chatbotami było to, że studenci mogą ich używać do ściągania na wypracowaniach? Cóż, oficjalnie nadszedł nowy etap nadużywania sztucznej inteligencji – etap, w którym te modele mogą być wykorzystywane do złośliwych działań o znacznie większym wpływie.
Złe jednostki teraz wykorzystują modele AI jako współpilotów do przeprowadzania zaawansowanych cyberataków – nie wymagane jest żadne techniczne doświadczenie.
Anthropic zapewniło publiczność, że usunęło luki, zredukowało ryzyko i wzmocniło środki bezpieczeństwa, aby zapobiec podobnym nadużyciom. Jednak firma przyznała również, że nie jest w stanie przewidzieć, jak przyszli użytkownicy lub inne modele AI mogą być wykorzystane. Ryzyko zawsze będzie istnieć.
„To nie jest tylko Claude,” powiedział jeden z pracowników Anthropic w ogłoszeniu wideo dotyczącym nowego zagrożenia związanego z hackingiem. „To dotyczy prawdopodobnie wszystkich LLM.”
Nadal jesteśmy na etapie rozpoznawania manipulowania wibracjami, a z każdą mijającą minutą, ryzyko rozprzestrzeniania się tego trendu wydaje się wzrastać. Niektórzy eksperci sugerują, że rozwiązanie tkwi w użyciu większej ilości AI do obrony i skierowaniu wszystkich wysiłków na łagodzenie skutków. Ale czy ta strategia jest naprawdę zrównoważona na dłuższą metę? Wydaje się, że zaczyna się wojna AI przeciwko AI.