Nowy Malware Wykorzystuje GPT-4 do Generowania Ataków na Żywo

Image by Xavier Cee, from Unsplash

Nowy Malware Wykorzystuje GPT-4 do Generowania Ataków na Żywo

Przeczytasz w: 2 min

Badacze bezpieczeństwa odkryli wczesne dowody na złośliwe oprogramowanie, które za pomocą dużych modeli językowych (LLMs) generuje szkodliwe działania na bieżąco.

Spieszy Ci się? Oto najważniejsze fakty:

  • Badacze znaleźli złośliwe oprogramowanie, które używa LLM-ów do generowania kodu w czasie rzeczywistym.
  • Złośliwe oprogramowanie nazwane MalTerminal wykorzystało GPT-4 do budowy ransomware i powłok.
  • Tradycyjne narzędzia antywirusowe mają problem z wykrywaniem złośliwego kodu generowanego w czasie rzeczywistym.

Wyniki zostały zaprezentowane na LABScon 2025 podczas prelekcji zatytułowanej „Malware z włączonym LLM na wolności.

Według SentinelLABS, „malware z włączonym LLM stawia nowe wyzwania dla wykrywania i polowania na zagrożenia, ponieważ złośliwa logika może być generowana w czasie wykonywania, a nie wbudowana w kod.”

Te zagrożenia działają za pomocą metod opartych na wykonaniu, co sprawia, że są one niemożliwe do wykrycia przez standardowe systemy antywirusowe, ponieważ szkodliwy kod nie istnieje do momentu wykonania.

Zespół zidentyfikował to, co uważa za najwcześniejszy przypadek tego typu złośliwego oprogramowania, które nazwali ‚MalTerminal’. System oparty na Pythonie wykorzystuje API GPT-4 od OpenAI do generowania ataków ransomware i ataków odwróconej powłoki.

Badacze udokumentowali dodatkowe narzędzia ofensywne, które obejmowały iniektory podatności oraz pomocniki phishingowe, aby pokazać, jak atakujący eksperymentują z LLMami.

„Na pierwszy rzut oka, malware, który przenosi swoje złośliwe funkcje na LLM, który może generować kod na bieżąco, wydaje się być koszmarem inżyniera detekcji” – napisali badacze.

Inne przypadki obejmują ‚PromptLock’, który po raz pierwszy pojawił się jako ransomware oparty na AI w 2023 roku, oraz PROMPTSTEAL, malware powiązany z rosyjską grupą APT28. Badacze wyjaśniają, że PROMPTSTEAL osadził 284 klucze API HuggingFace i używał LLMów do generowania poleceń systemowych do kradzieży plików.

Badacze odkryli, że pomimo swojej zaawansowanej technologii, złośliwe oprogramowanie z włączonym LLM musi zawierać „wbudowane klucze API i monity”, pozostawiając ślady, które obrońcy mogą śledzić. Napisali: „To czyni złośliwe oprogramowanie z włączonym LLM coś w rodzaju ciekawostki: narzędzie, które jest unikalnie zdolne, przystosowujące się, a jednocześnie również kruche.”

Na razie, użycie złośliwego oprogramowania z włączonym LLM wydaje się rzadkie i głównie eksperymentalne. Ale eksperci ostrzegają, że w miarę jak przeciwnicy doskonalą swoje metody, te narzędzia mogą stać się poważnym zagrożeniem dla cyberbezpieczeństwa.

Spodobał Ci się ten artykuł? Oceń go!
Był okropny Nie podobał mi się Był w porządku Był całkiem dobry! Był super!

Cieszymy się, że doceniasz to, co robimy!

Cenimy Twoją opinię. Czy możemy liczyć na ocenę na Trustpilot? Zajmie Ci to tylko chwilę. Będziemy zobowiązani. Dziękujemy za wsparcie!

Oceń nas na Trustpilot
0 Na podstawie głosów 0 użytkowników
Tytuł
Komentarz
Dziękujemy za Twoją opinię