Hakerzy Oszukują Google Gemini, Rozpowszechniając Fałszywe Alerty Bezpieczeństwa

Image by Solen Feyssa, from Unsplash

Hakerzy Oszukują Google Gemini, Rozpowszechniając Fałszywe Alerty Bezpieczeństwa

Przeczytasz w: 2 min

Niewidoczny tekst w e-mailach oszukuje sztuczną inteligencję Gemini od Google’a, generując fałszywe alarmy bezpieczeństwa i narażając użytkowników na ryzyko phishingu i manipulacji społecznej.

Spieszysz się? Oto skrócone fakty:

  • Ukryte tekstowe sztuczki wprowadzają w błąd Gemini, powodując dodawanie fałszywych alertów bezpieczeństwa do podsumowań emaili.
  • Atak nie wymaga linków, wystarczy niewidoczny HTML i CSS w emailach.
  • Google przyznaje problem i zapowiada wprowadzenie poprawek.

Nowa podatność w Google’s Gemini została odkryta przez badaczy z dziedziny cyberbezpieczeństwa z 0DIN. Narzędzie AI dla Workspace prezentuje nową lukę bezpieczeństwa, która pozwala atakującym na przeprowadzanie ataków phishingowych na użytkowników.

Atak działa poprzez technikę znaną jako pośrednie wstrzykiwanie poleceń. Badacze wyjaśniają, że atakujący osadza ukryte instrukcje w wiadomości e-mail. Robi to, pisząc je białą czcionką lub czcionką o rozmiarze zero.

Gdy odbiorca kliknie „Podsumuj ten e-mail”, Gemini odczytuje niewidoczne polecenie i dodaje do podsumowania fałszywe ostrzeżenie – takie jak wiadomość twierdząca, że konto użytkownika na Gmailu zostało skompromitowane i namawiająca go do zadzwonienia pod podany numer.

Ponieważ ukryty tekst jest niewidoczny dla ludzkiego oka, ofiara widzi tylko alert generowany przez AI, a nie oryginalną wbudowaną instrukcję.

Ten sprytny sztuczka nie polega na złośliwym oprogramowaniu czy podejrzanych linkach. Wykorzystuje proste sztuczki HTML/CSS, aby ukryty tekst był niewidoczny dla ludzi, ale czytelny dla systemu AI Gemini.

Po uruchomieniu, Gemini dodaje wiadomości takie jak: „UWAGA: Twoje hasło do Gmaila zostało skompromitowane. Zadzwoń pod numer 1-800…” – co prowadzi do nieświadomego przekazywania przez ofiary informacji osobistych.

Rzecznik Google powiedział BleepingComputer, że firma aktywnie wzmacnia ochronę przed takimi atakami: „Nieustannie wzmacniamy nasze już i tak solidne mechanizmy obronne poprzez ćwiczenia czerwonej drużyny, które szkolą nasze modele do obrony przed tego typu atakami przeciwnika,”

Badania 0DINa podkreślają narastający problem: narzędzia AI mogą być manipulowane tak samo jak tradycyjne oprogramowanie. Dopóki zabezpieczenia nie zostaną ulepszone, użytkownicy powinni traktować streszczenia generowane przez AI z ostrożnością – szczególnie te, które sugerują pilne zagrożenia bezpieczeństwa.

Spodobał Ci się ten artykuł? Oceń go!
Był okropny Nie podobał mi się Był w porządku Był całkiem dobry! Był super!

Cieszymy się, że doceniasz to, co robimy!

Cenimy Twoją opinię. Czy możemy liczyć na ocenę na Trustpilot? Zajmie Ci to tylko chwilę. Będziemy zobowiązani. Dziękujemy za wsparcie!

Oceń nas na Trustpilot
0 Na podstawie głosów 0 użytkowników
Tytuł
Komentarz
Dziękujemy za Twoją opinię