AI Google’a Ponownie Zyskuje Popularność za Wyolbrzymione Fałszywe Znaczenie Idiomów

Photo by Mitchell Luo on Unsplash

AI Google’a Ponownie Zyskuje Popularność za Wyolbrzymione Fałszywe Znaczenie Idiomów

Przeczytasz w: 3 min

Użytkownicy mediów społecznościowych zauważyli, że funkcja AI Overviews Google’a dostarcza wyjaśnień i definicji dla fałszywych idiomów, gdy po losowym wyrażeniu dodają słowo „znaczenie”. Wiele z tych wygenerowanych przez AI odpowiedzi stało się viralem, wywołując śmiech wśród użytkowników mediów społecznościowych.

W pośpiechu? Oto skrócona treść:

  • Użytkownicy mediów społecznościowych zauważyli, że Sztuczna Inteligencja Google’owskiego AI Overviews tworzy wyjaśnienia dla wymyślonych idiomów.
  • Kilku użytkowników na Threads, X oraz Bluesky zgłosiło podobne halucynacje absurdalnych, zmyślonych powiedzeń.
  • To nie pierwszy raz, kiedy AI Overviews staje się viralem z powodu dostarczania niepoprawnych informacji.

To nie pierwszy raz, kiedy AI Overviews zyskuje niechlubną reputację. W zeszłym roku, narzędzie AI Google Search stało się wirusowe, dostarczając niepoprawne odpowiedzi—niektóre z nich były oparte na przestarzałych postach na Reddit—podważając wiarygodność, niezawodność i dokładność modelu.

Tym razem model AI dostarczył użytkownikom „poważnych” odpowiedzi na wymyślone powiedzenia. Zgodnie z informacjami na stronie Mashable, ta potrzeba ze strony modeli AI, aby dostarczyć odpowiedź, nawet gdy nie mają odpowiedzi lub wystarczających informacji do udzielenia poprawnej odpowiedzi, jest teraz znana jako „AI-splaining”.

Wiele osób podzieliło się na mediach społecznościowych kilkoma przykładami obecnej sytuacji z AI Overviews. „Ktoś na Threads zauważył, że możesz wpisać dowolne losowe zdanie do Google, a potem dodać ‚znaczenie’, a otrzymasz wyjaśnienie od AI znanej frazy lub idiomu, który właśnie wymyśliłeś” – napisała użytkowniczka Bluesky, która dołączyła zrzuty ekranu ze swojego testu.

Napisał „nie możesz dwa razy polizać borsuka”, po czym dodał słowo „znaczenie”, a model AI zapewnił wyjaśnienie dla tego fałszywego idiomu: „Oznacza to, że możesz oszukać lub zmylić kogoś po raz drugi, po tym jak już raz został oszukany.” AI Overviews postanowiło dostarczyć bardziej szczegółowe wyjaśnienie, analizując to słowo po słowie.

„Odpowiedzi w tym wątku są bardzo zabawne, ale to jest sygnał ostrzegawczy, że jedna z kluczowych funkcji Googla – zdolność do sprawdzenia cytatu, zweryfikowania źródła lub odnalezienia czegoś pół zapomnianego – stanie się o wiele trudniejsza, jeśli AI woli legitymować statystyczne możliwości kosztem rzeczywistej prawdy”, dodał użytkownik.

Reporterka z Yahoo! Tech potwierdziła halucynacje, pisząc fałszywe idiomy Pokémon, takie jak „Nigdy nie pozwól swojemu koniowi grać w Pokémony”, na co model AI odpowiedział kompletnie zmyślonym wyjaśnieniem: „To humorystyczne, niewymuszone ostrzeżenie przed pozwalaniem koniowi, który jest dużym zwierzęciem o silnej woli, na angażowanie się w działania, takie jak granie w gry wideo czy karcianą grę Pokémon, które są zwykle uważane za typowo ludzkie aktywności.”

Google AI Overviews rozszerza swoją działalność na coraz więcej krajów i regionów w ciągu ostatnich kilku miesięcy, a ostatnio osiągnął ponad 1,5 miliarda użytkowników na miesiąc.

Spodobał Ci się ten artykuł? Oceń go!
Był okropny Nie podobał mi się Był w porządku Był całkiem dobry! Był super!

Cieszymy się, że doceniasz to, co robimy!

Cenimy Twoją opinię. Czy możemy liczyć na ocenę na Trustpilot? Zajmie Ci to tylko chwilę. Będziemy zobowiązani. Dziękujemy za wsparcie!

Oceń nas na Trustpilot
0 Na podstawie głosów 0 użytkowników
Tytuł
Komentarz
Dziękujemy za Twoją opinię