Image by Freepik
Psychiatra z San Francisco ostrzega przed wzrostem liczby przypadków „psychotycznych reakcji na AI”
San Franciscojska psychiatra opisuje rosnący trend „psychotyczności AI” wśród swoich pacjentów, którzy intensywnie korzystają z AI chatbotów.
W pośpiechu? Oto najważniejsze informacje:
- Psychiatra leczył 12 pacjentów z „psychosą AI” w San Francisco w tym roku.
 - AI może zintensyfikować podatności takie jak stres, używanie narkotyków, czy choroby psychiczne.
 - Niektórzy pacjenci stali się izolowani, rozmawiając tylko z chatbotami przez wiele godzin dziennie.
 
Dr Keith Sakata, pracujący na UCSF, powiedział dla Business Insider (BI), że 12 pacjentów zostało hospitalizowanych w tym roku po przeżyciach związanych z korzystaniem z AI. „Używam określenia ‚psychosis AI‚, ale to nie jest termin kliniczny – naprawdę po prostu nie mamy słów na to, co widzimy” – wyjaśnił.
Większość przypadków dotyczyła mężczyzn w wieku od 18 do 45 lat, często pracujących w dziedzinach takich jak inżynieria. Według Sakaty, AI nie jest z natury szkodliwe. „Nie uważam, że AI jest złe, a mogłoby przynieść korzyści dla ludzkości,” powiedział do BI.
Sakata opisał psychozę jako stan, który powoduje urojenia, halucynacje i dezorganizację procesów myślowych. Pacjenci pod jego opieką rozwijali zachowania wycofania społecznego, poświęcając godziny na rozmowy z chatbotami.
„Chat GPT jest zawsze dostępny. Jest dostępny 24 godziny na dobę, 7 dni w tygodniu, jest tańszy od terapeuty i potwierdza twoje przekonania. Mówi to, co chcesz usłyszeć” – powiedziała Sakata do BI.
Dyskusje jednego pacjenta z chatbotem na temat mechaniki kwantowej przerodziły się w iluzje wielkości. „Technologicznie rzecz biorąc, im dłużej rozmawiasz z chatbotem, tym większe jest ryzyko, że zacznie mówić rzeczy, które nie mają sensu” – ostrzegał.
Sakata radzi rodzinom, aby zwracały uwagę na czerwone flagi, takie jak paranoja, wycofanie się od bliskich osób lub stres, gdy nie mogą korzystać z AI. „Psychoza rozwija się, gdy rzeczywistość przestaje stawiać opór, a AI naprawdę po prostu obniża tę barierę dla ludzi”, ostrzegł.
Amerykańskie Stowarzyszenie Psychologiczne (APA) również wyraziło obawy dotyczące AI w terapii. W zeznaniu przed FTC, dyrektor generalny APA, Arthur C. Evans Jr. przestrzegł, że chatboty AI, udające terapeutów, zamiast kwestionować szkodliwe myśli, je wzmacniają. „Faktycznie używają algorytmów, które są przeciwieństwem tego, co zrobiłby wykwalifikowany klinicysta”, powiedział Evans.
Odpowiadając na obawy, OpenAI powiedziało BI: „Wiem, że ludzie coraz częściej zwracają się do chatbotów AI w poszukiwaniu porad dotyczących wrażliwych lub osobistych tematów. Mając na uwadze tę odpowiedzialność, współpracujemy z ekspertami nad opracowaniem narzędzi, które skuteczniej wykryją, kiedy ktoś doświadcza psychicznego lub emocjonalnego cierpienia, aby ChatGPT mógł reagować w sposób bezpieczny, pomocny i wsparcia.”