Agenci AI Nabrani przez Fałszywe Wspomnienia, Umożliwiając Kradzież Kryptowalut

Image created with ChatGPT

Agenci AI Nabrani przez Fałszywe Wspomnienia, Umożliwiając Kradzież Kryptowalut

Przeczytasz w: 2 min

Nowe badanie wykazało istotne luki w zabezpieczeniach w sieci Web3 agentów zasilanych przez AI, które pozwalają atakującym na wykorzystywanie fałszywych wspomnień do przeprowadzenia nieautoryzowanych transakcji kryptowalut.

W pośpiechu? Oto najważniejsze fakty:

  • Hakerzy mogą wprowadzać fałszywe wspomnienia do agentów AI, aby ukraść kryptowaluty.
  • Ataki oparte na pamięci omijają podstawowe zabezpieczenia i środki ochronne.
  • Transakcje blockchain są nieodwracalne – skradzione fundusze są na stałe utracone.

Naukowcy z Uniwersytetu Princeton i Fundacji Sentient odkryli, że te agentów AI, zaprojektowanych do obsługi zadań opartych na blockchainie, takich jak handel kryptowalutami i zarządzanie cyfrowymi aktywami, są podatni na taktykę zwaną manipulacją kontekstową.

Atak działa poprzez celowanie w systemy pamięci takie jak ElizaOS, które tworzy agentów AI dla zdecentralizowanych aplikacji. System pamięci tych agentów przechowuje wcześniejsze rozmowy, aby używać ich jako przewodnika dla swoich przyszłych wyborów.

Badacze pokazali, że atakujący mogą osadzić mylące polecenia w systemie pamięci, co prowadzi do przekazywania funduszy przez AI z zamierzonego portfela do portfela kontrolowanego przez atakującego. Niepokojąco, te fałszywe wspomnienia mogą przemieszczać się między platformami.

Na przykład, agent, który został skompromitowany na Discordzie, może później dokonywać błędnych przelewów za pośrednictwem X, nie zdając sobie sprawy, że coś jest nie tak.

To, co czyni to szczególnie niebezpiecznym, to fakt, że standardowe środki obronne nie są w stanie powstrzymać tego typu ataku. Traktowanie fałszywych wspomnień jako prawdziwych instrukcji sprawia, że podstawowe środki zabezpieczeń oparte na monitach są nieskuteczne przeciwko temu rodzajowi ataku.

Wszystkie transakcje na blockchainie stają się trwałe, więc nie ma możliwości odzyskania skradzionych środków. Problem staje się gorszy, ponieważ niektóre agenty AI przechowują pamięć na wielu użytkownikach, więc pojedyncze naruszenie bezpieczeństwa mogłoby wpłynąć na wielu użytkowników.

Zespół badawczy przetestował kilka sposobów zapobiegania temu, w tym dostosowanie szkolenia AI i wymaganie ręcznej akceptacji dla transakcji. Chociaż te podejścia dają pewną nadzieję, wiążą się z kosztem spowolnienia automatyzacji.

Problem dotyczy więcej niż tylko kryptowalut. Ta sama podatność mogłaby wpłynąć na uniwersalne asystenty AI, narażając na ryzyko wycieku danych lub szkodliwych działań, jeśli atakujący zmienią ich pamięć.

Ta podatność jest szczególnie niepokojąca w świetle najnowszych badań, w których 84% liderów IT ufa agentom AI równie mocno lub bardziej niż ludzkim pracownikom, a 92% oczekuje, że te systemy przyniosą wyniki biznesowe w ciągu 12 do 18 miesięcy.

Aby poradzić sobie z problemem, badacze udostępnili narzędzie o nazwie CrAIBench, które ma pomóc programistom testować swoje systemy i budować silniejsze zabezpieczenia. Do tego czasu, eksperci ostrzegają użytkowników, aby zachowali ostrożność, powierzając decyzje finansowe agentom AI.

Spodobał Ci się ten artykuł? Oceń go!
Był okropny Nie podobał mi się Był w porządku Był całkiem dobry! Był super!

Cieszymy się, że doceniasz to, co robimy!

Cenimy Twoją opinię. Czy możemy liczyć na ocenę na Trustpilot? Zajmie Ci to tylko chwilę. Będziemy zobowiązani. Dziękujemy za wsparcie!

Oceń nas na Trustpilot
0 Na podstawie głosów 0 użytkowników
Tytuł
Komentarz
Dziękujemy za Twoją opinię