Close up on screen displaying ChatGPT homepage
Hakerzy z Korei Północnej Wykorzystali ChatGPT do Sfałszowania Głęboko Fałszywych Dowodów Wojskowych w Ataku Cybernetycznym
Podejrzewana grupa hakerów sponsorowana przez państwo północnokoreańskie wykorzystała ChatGPT do stworzenia deepfake koreańskiego wojskowego dowodu tożsamości w ramach cyberataku
Spieszysz się? Oto najważniejsze informacje:
- Phishingowy email zawierał złośliwe oprogramowanie zaprojektowane do kradzieży danych ofiar.
- Grupą stojącą za atakiem jest podejrzewana północnokoreańska jednostka „Kimsuky”.
- Celem byli dziennikarze, badacze i działacze na rzecz praw człowieka w Korei Południowej.
Napastnicy stworzyli fałszywy dowód tożsamości, aby podnieść swoją wiarygodność podczas operacji phishingowej, jak podaje Bloomberg. Zamiast dołączania prawdziwego obrazu, phishingowy email zawierał link, który uruchamiał pobieranie złośliwego oprogramowania, zaprojektowanego do kradzieży danych z urządzeń ofiar.
Uważa się, że hakerzy są częścią grupy Kimsuky, która od dawna jest podejrzewana o pracę dla Pjongjangu. Amerykański Departament Bezpieczeństwa Krajowego stwierdził w 2020 roku, że Kimsuky „najprawdopodobniej otrzymało od reżimu Korei Północnej zadanie prowadzenia globalnej misji zbierania informacji wywiadowczych”, jak podaje Bloomberg.
Celem phishingu w najnowszym ataku byli południowokoreańscy dziennikarze, badacze oraz działacze na rzecz praw człowieka skupiający się na Korei Północnej. Bloomberg wyjaśnia, że phishingowe maile używały nawet adresu kończącego się na „.mil.kr”, aby naśladować południowokoreańskie wojsko. Nadal nie jest jasne, ilu ludzi zostało dotkniętych.
Napastnicy mogą wykorzystać nowoczesne technologie AI w procesie hakowania, w tym planowanie scenariuszy ataku, rozwijanie złośliwego oprogramowania, budowanie swoich narzędzi i podszywanie się pod rekruterów,” powiedziała Mun Chong-hyun, dyrektor w Genians, południowokoreańskiej firmie zajmującej się cyberbezpieczeństwem, która jako pierwsza odkryła atak.
Bloomberg informuje, jak badacze z Genians odkryli, że ChatGPT początkowo odmówił stworzenia ID, kiedy o to poproszono, ponieważ reprodukcja identyfikatorów rządowych jest nielegalna w Korei Południowej. Ale zmiana polecenia pozwoliła im ominąć to ograniczenie.
To nie jest pierwszy przypadek wykorzystania sztucznej inteligencji przez hakerów z Korei Północnej. Na przykład, w sierpniu Anthropic poinformowało, że hakerzy użyli jego narzędzia Claude Code do zdobycia zdalnej pracy w amerykańskich firmach z listy Fortune 500.
Amerykańscy urzędnicy ostrzegają, że Korea Północna nadal polega na atakach cybernetycznych, kradzieży kryptowalut i kontraktach IT zarówno w celu zbierania informacji wywiadowczych, jak i finansowania swojego programu nuklearnego.