
Image by Vector Juice, from Freepik
AI Przewyższa Ludzi w Debatach
AI jest teraz w stanie przewyższyć ludzi w debatach, wykorzystując dane osobowe – zmieniając opinie bardziej efektywnie i budząc obawy o manipulację i masowe perswazję.
W pośpiechu? Oto najważniejsze informacje:
- GPT-4 przewyższył ludzi w debatach, kiedy dostarczono mu dane osobowe.
- Spersonalizowane argumenty AI przekonywały do swojego stanowiska o 81% skuteczniej niż ludzie.
- Ponad 900 uczestników dyskutowało na tematy takie jak klimat i opieka zdrowotna.
Nowe badanie opublikowane w Nature Human Behaviour pokazuje, że GPT-4 od OpenAI może być bardziej przekonujący niż ludzie, zwłaszcza gdy dostosowuje swoje argumenty na podstawie informacji personalnych o swoim przeciwniku.
Badania, prowadzone przez Francesco Salvi i jego zespół na EPFL, zbadały, jak skuteczny jest GPT-4 w zmienianiu opinii ludzi poprzez krótkie, strukturalne debaty.
Uczestnicy badania zostali losowo dobrani do partnera, którym mógł być człowiek lub przeciwnik AI. Niektórym debaterom udostępniono osobiste informacje o swoim rozmówcy, takie jak wiek, poziom edukacji i orientacja polityczna.
Gdy GPT-4 miało dostęp do tych danych osobowych, było znacznie bardziej przekonujące – przewyższało ludzkich debatujących aż o 81%. W debatach z jasno wyłonionym zwycięzcą, AI wyłaniało się jako triumfator 64% razy, kiedy personalizowało swoje argumenty.
Bez dostępu do danych osobowych, GPT-4 prezentowało się na równi z ludźmi. Co ciekawe, kiedy ludziom udostępniono te same informacje osobowe, nie stali się oni zauważalnie bardziej przekonujący, co sugeruje, że AI jest lepiej przystosowane do strategicznego wykorzystania takich danych.
Eksperyment obejmował ponad 900 uczestników dyskutujących na tematy takie jak mundurki szkolne, polityka zmian klimatu i reforma służby zdrowia. Uczestnicy oceniali swoją zgodę na temat debaty zarówno przed, jak i po interakcji.
Najbardziej znaczące zmiany opinii przyniosły spersonalizowane argumenty GPT-4, szczególnie w przypadku umiarkowanie polaryzujących tematów.
Te wyniki budzą obawy o przyszłość mikrotargetowania sterowanego przez AI, które wykorzystuje spersonalizowane wiadomości do wpływania na ludzi na podstawie ich indywidualnych cech. Ponieważ AI już teraz potrafi wnioskować o prywatnych informacjach na podstawie zachowań online, otwiera to drzwi do skutecznych kampanii perswazyjnych w polityce, reklamie i dezinformacji.
Eksperci zaangażowani w projekt zauważają, że skoordynowane kampanie dezinformacyjne oparte na AI mogą stać się poważnym zagrożeniem.
„Decydenci i platformy internetowe powinni poważnie rozważyć zagrożenie wynikające z koordynowanych kampanii dezinformacyjnych opartych na AI, ponieważ osiągnęliśmy już poziom technologiczny, który umożliwia stworzenie sieci automatycznych kont opartych na LLM, zdolnych do strategicznego kierowania opinii publicznej w jednym kierunku” – mówi Riccardo Gallotti, który pracował nad tym projektem, jak informuje MIT.
„Te boty mogłyby być używane do rozpowszechniania dezinformacji, a tego rodzaju rozproszony wpływ byłby bardzo trudny do obalenia w czasie rzeczywistym” – dodał. Jednym z aspektów, które badacze nadal analizują, jest rola percepcji uczestników w tych debatach.
Nie jest jasne, czy ludzie byli bardziej skłonni zmienić swoje opinie, ponieważ uważali, że dyskutują z botem, a więc nie czuli, że „przegrywają” z prawdziwą osobą, czy też ich założenie, że ich przeciwnik był botem, pojawiło się po zmianie opinii jako sposób na racjonalizację wyniku.
Jednakże, badacze zauważają, że badanie miało swoje ograniczenia. Debata była krótka i zorganizowana, co nie oddaje w pełni złożoności dyskursu w prawdziwym świecie. Uczestnicy również wiedzieli, że biorą udział w eksperymencie, co mogło wpłynąć na sposób, w jaki reagowali.
Jednakże, przekaz jest jasny: SI staje się alarmująco skuteczna w przekonywaniu, szczególnie gdy wie, do kogo mówi. Badacze ostrzegają, że może to mieć poważne konsekwencje i apelują do rządów oraz firm technologicznych o wdrożenie zabezpieczeń, które zapobiegną potencjalnemu nadużyciu.