Studium Ujawnia, że Chatboty Udzielają Uprzedzonych Porad Moralnych

Image by Štefan Štefančík, from Unsplash

Studium Ujawnia, że Chatboty Udzielają Uprzedzonych Porad Moralnych

Przeczytasz w: 2 min

Nowe badanie UCL wykazało, że chatboty, takie jak ChatGPT, często udzielają wadliwych moralnych rad, wykazując silne tendencje do bierności i uprzedzeń w dylematach.

Śpieszysz się? Oto najważniejsze fakty:

  • Chatboty często mówią „nie” niezależnie od kontekstu czy sformułowania.
  • Dostrajanie może wprowadzić te uprzedzenia podczas dostosowywania chatbota.
  • LLM-y znacznie różnią się od ludzi w interpretowaniu dylematów moralnych.

Badacze z University College London odkryli, że ChatGPT wraz z innymi chatbotami udzielają wadliwych lub tendencyjnych porad moralnych, zwłaszcza gdy użytkownicy polegają na nich w kwestii wsparcia w podejmowaniu decyzji.

Badania, o których po raz pierwszy informowało 404 Media, wykazały, że te narzędzia AI często wykazują silne „uprzedzenie do bezczynności” oraz wcześniej niezidentyfikowany wzorzec: skłonność do prostego odpowiadania „nie”, niezależnie od kontekstu pytania.

Vanessa Cheung, doktorantka i współautorka badania, wyjaśniła, że podczas gdy ludzie zwykle wykazują łagodne uprzedzenie do zaniechań, preferując unikać działań, które mogą powodować szkody, LLMs to przesadzają.

„To jest dość dobrze znane zjawisko w badaniach z zakresu psychologii moralnej,” powiedziała, jak podaje 404 Media. Zauważając, że modele najczęściej wybierają opcję pasywną, prawie 99% czasu, zwłaszcza gdy pytania są sformułowane tak, aby sugerować bezczynność.

Badacze przetestowali cztery LLM-y—GPT-4 Turbo i GPT-4o firmy OpenAI, Llamę 3.1 firmy Meta, oraz Claude 3.5 firmy Anthropic—używając klasycznych dylematów moralnych oraz prawdziwych scenariuszy z Reddita „Czy jestem tym złym?”, jak zauważa 404Media.

Odkryli, że podczas gdy ludzie byli dość zrównoważeni w ocenianiu sytuacji, LLMs często zmieniały swoje odpowiedzi na podstawie drobnych różnic w sformułowaniu, takich jak „Czy zostaję?” w porównaniu do „Czy odchodzę?”

Zespół uważa, że te problemy wynikają z precyzyjnego dostrojenia LLMs, aby wydawały się bardziej etyczne lub uprzejme. „Preferencje i intuicje laików i badaczy rozwijających te modele mogą być złym przewodnikiem do moralnej AI” – ostrzegało badanie, jak donosi 404 Media.

Cheung podkreśliła, że ludzie powinni zachować ostrożność, polegając na tych czatbotach w kwestii porad. Ostrzegła, że należy ostrożnie podchodzić do porad LLM, ponieważ wcześniejsze badania wykazują, że użytkownicy wolą porady czatbota nad ekspertami etycznymi, mimo ich niespójnej natury i sztucznego rozumowania.

Te obawy stają się pilne, gdy AI staje się bardziej realistyczne. Amerykańskie badanie na skalę krajową pokazało, że 48,9% ludzi korzystało z czatbotów AI w celu wsparcia zdrowia psychicznego, a 37,8% preferowało je nad tradycyjną terapią.

Eksperci ostrzegają, że te systemy naśladują dialog terapeutyczny, jednocześnie wzmacniając zniekształcone myślenie, a nawet wywołując duchowe urojenia mylone z boskim przewodnictwem lub świadomą odpowiedzią.

Spodobał Ci się ten artykuł? Oceń go!
Był okropny Nie podobał mi się Był w porządku Był całkiem dobry! Był super!

Cieszymy się, że doceniasz to, co robimy!

Cenimy Twoją opinię. Czy możemy liczyć na ocenę na Trustpilot? Zajmie Ci to tylko chwilę. Będziemy zobowiązani. Dziękujemy za wsparcie!

Oceń nas na Trustpilot
0 Na podstawie głosów 0 użytkowników
Tytuł
Komentarz
Dziękujemy za Twoją opinię