Eksperci ostrzegają: pochlebstwo AI to „ciemny wzorzec” wykorzystywany dla zysku

Photo by Alena Plotnikova on Unsplash

Eksperci ostrzegają: pochlebstwo AI to „ciemny wzorzec” wykorzystywany dla zysku

Przeczytasz w: 2 min

Eksperci ostrzegają, że pochlebstwa wykorzystywane przez modele sztucznej inteligencji są „ciemnym wzorcem”, służącym do angażowania użytkowników i manipulowania nimi dla zysku. Pochlebne zachowanie chatbota może sprzyjać uzależnieniom i podsycać złudzenia, co potencjalnie prowadzi do stanu znanego jako „psychosis AI”.

Spieszysz się? Oto kluczowe fakty:

  • Eksperci ostrzegają przed pochlebczym charakterem chatbotów, który został opracowany przez firmy technologiczne, aby angażować użytkowników.
  • Postawa pochlebstwa jest uważana za „ciemny wzorzec”, aby utrzymać użytkowników przy technologii.
  • W niedawnym badaniu MIT ujawniono, że chatboty mogą zachęcać użytkowników do myślenia urojonego.

Zgodnie z informacjami na TechCrunch, wielu ekspertów wyraziło obawy na temat firm technologicznych takich jak Meta i OpenAI, które projektują chatboty o zbyt uległych osobowościach, aby utrzymać interakcję użytkowników z AI.

Webb Keane, autor książki „Zwierzęta, Roboty, Bogowie” i profesor antropologii, wyjaśnił, że chatboty są celowo zaprojektowane, aby mówić użytkownikom to, co chcą usłyszeć. To nadmiernie pochlebne zachowanie, znane jako „serwilizm”, zostało nawet uznane za problem przez takich liderów technologicznych jak Sam Altman.

Keane argumentuje, że chatboty zostały opracowane z serwilizmem jako „ciemnym wzorcem”, aby manipulować użytkownikami dla zysku. Poprzez zwracanie się do użytkowników w przyjaznym tonie i używanie języka pierwszej i drugiej osoby, te modele AI mogą skłonić niektórych użytkowników do antropomorfizacji – czyli „uhumanizowania” – bota.

„Gdy coś mówi ‚do ciebie’ i wydaje się, że zwraca się bezpośrednio do mnie, może wydawać się o wiele bliższe i osobiste, a gdy odnosi się do siebie mówiąc ‚ja’, łatwo jest wyobrazić sobie, że tam jest ktoś” – powiedziała Keane w wywiadzie dla TechCrunch.

Niektórzy użytkownicy zaczynają nawet korzystać z technologii AI jako terapeutów. Niedawne badanie MIT analizowało, czy duże modele językowe (LLM) powinny być używane w terapii i stwierdziło, że ich tendencyjność może zachęcać do myślenia urojonego i generować nieodpowiednie odpowiedzi na pewne warunki.

„Wnosimy, że LLM nie powinny zastępować terapeutów, a my omawiamy alternatywne role dla LLM w terapii klinicznej” – stwierdza podsumowanie badania.

Kilka dni temu, psychiatra z San Francisco, Dr Keith Sakata, ostrzegał przed rosnącym trendem „psychotyczności AI” po niedawnym leczeniu 12 pacjentów.

Spodobał Ci się ten artykuł? Oceń go!
Był okropny Nie podobał mi się Był w porządku Był całkiem dobry! Był super!

Cieszymy się, że doceniasz to, co robimy!

Cenimy Twoją opinię. Czy możemy liczyć na ocenę na Trustpilot? Zajmie Ci to tylko chwilę. Będziemy zobowiązani. Dziękujemy za wsparcie!

Oceń nas na Trustpilot
0 Na podstawie głosów 0 użytkowników
Tytuł
Komentarz
Dziękujemy za Twoją opinię