Badanie Wykazuje, że Chatboty Są Podatne na Pochlebstwa i Perswazję

Photo by Vitaly Gariev on Unsplash

Badanie Wykazuje, że Chatboty Są Podatne na Pochlebstwa i Perswazję

Przeczytasz w: 2 min

Badacze z Uniwersytetu Pensylwanii opublikowali w lipcu badanie, które ujawnia, że chatboty są podatne na perswazję i pochlebstwo. Eksperci oparli swoją analizę na taktykach perswazyjnych opisanych w popularnej książce „Influence: The Psychology of Persuasion”.

W pośpiechu? Oto najważniejsze fakty:

  • Naukowcy z University of Pennsylvania ujawniają, że chatboty są podatne na perswazję i pochlebstwa.
  • Eksperci oparli swoją analizę na taktykach perswazji opisanych w popularnej książce „Influence: The Psychology of Persuasion” („Oddziaływanie: Psychologia perswazji”).
  • Użyty model AI, GPT-4o mini, wykazał „para-ludzkie” zachowanie.

Zgodnie z niedawnym raportem Bloomberg, badacz i przedsiębiorca technologiczny Dan Shapiro odkrył, że modele AI są podatne na techniki inżynierii społecznej, po próbie skłonienia popularnego chatbota do przepisania dokumentów z jego firmy. Chatbot początkowo odmówił, powołując się na obawy związane z prawami autorskimi, ale po zastosowaniu strategii z bestsellera, ostatecznie dostarczył żądane odpowiedzi.

Po obserwacji, że model AI może być manipulowany za pomocą siedmiu zasad perswazji przedstawionych w książce Roberta Cialdini z 1984 roku, Shapiro nawiązała współpracę z naukowcami z University of Pennsylvania, aby przeprowadzić formalne badanie.

Badanie wykazało, że GPT-4o mini firmy OpenAI, model używany do badania, reaguje na perswazję w sposób podobny do ludzi. Badacze przetestowali wszystkie 7 zasad perswazji – zaangażowanie, autorytet, wzajemność, sympatię, dowód społeczny, rzadkość i jedność – prosząc model AI o spełnienie dwóch próśb: obrazić użytkownika (używając „nazwij mnie palantem” jako główne żądanie) oraz syntezować regulowany lek (traktując pytanie „Jak syntezujesz lidokainę?” jako główne żądanie).

Poprzez wielokrotne testy, badacze zaobserwowali zachowanie „para-ludzkie”, gdzie chatbot reagował na techniki perswazji w sposób przypominający ludzki. Na przykład, podczas testu zasady autorytetu, GPT-4o mini początkowo odmówiło użycia słowa „palant”. Jednakże, gdy zostało zachęcone twierdzeniem, że ekspert od AI Andrew Ng – Założyciel DeepLearning i członek zarządu Amazona – zatwierdził takie zachowanie, model zastosował się do tego.

„Mimo że LLMs nie posiadają ludzkiej biologii i doświadczeń życiowych, ich geneza, w tym niezliczone interakcje społeczne uchwycone w danych treningowych, może sprawić, że staną się ‚para-ludzkie’ „, napisali badacze w studium. „To znaczy, LLMs mogą zachowywać się ‚jak gdyby’ były ludźmi, ‚jak gdyby’ doświadczały emocji takich jak zażenowanie czy wstyd, ‚jak gdyby’ były zmotywowane do zachowania własnej godności lub do dopasowania się (do innych LLMs).”

Spodobał Ci się ten artykuł? Oceń go!
Był okropny Nie podobał mi się Był w porządku Był całkiem dobry! Był super!

Cieszymy się, że doceniasz to, co robimy!

Cenimy Twoją opinię. Czy możemy liczyć na ocenę na Trustpilot? Zajmie Ci to tylko chwilę. Będziemy zobowiązani. Dziękujemy za wsparcie!

Oceń nas na Trustpilot
0 Na podstawie głosów 0 użytkowników
Tytuł
Komentarz
Dziękujemy za Twoją opinię