Image by Nik Shuliahin, from Unsplash
Pacjenci zaniepokojeni, gdy terapeuci potajemnie korzystają z ChatGPT podczas sesji
Niektórzy terapeuci tajemniczo zaczęli korzystać z ChatGPT do prowadzenia terapii swoich pacjentów, którzy teraz czują się zszokowani i zaniepokojeni o swoją prywatność.
W pośpiechu? Oto najważniejsze informacje:
- Niektórzy terapeuci potajemnie używają ChatGPT podczas sesji bez zgody klienta.
- Jeden pacjent odkrył, że jego terapeuta korzysta z AI dzięki błędowi w udostępnianiu ekranu.
- Inna pacjentka zauważyła, że jej terapeutka używa AI, gdy w wiadomości pozostał monit.
Nowy raport opublikowany przez MIT Technology Review prezentuje przypadek Declana, 31-letniego mieszkańca Los Angeles, który odkrył, że jego terapeuta używa AI podczas sesji terapeutycznych, z powodu technicznego błędu.
Podczas sesji online, jego terapeuta przypadkowo udostępnił swój ekran. „Nagle zobaczyłem, jak korzysta z ChatGPT” – mówi Declan. „Brał to, co mówiłem i wprowadzał do ChatGPT, a potem podsumowywał lub wybierał odpowiedzi.”
Declan zdecydował się wejść w grę, nawet naśladując sformułowania AI. „Stałem się najlepszym pacjentem na świecie” – mówi. „Jestem pewien, że to było jego marzenie”. Jednak odkrycie skłoniło go do zadania pytania: „Czy to jest legalne?” Jego terapeuta później przyznał, że zwrócił się do AI, ponieważ czuł się zablokowany. „Wciąż musiałem zapłacić za tę sesję” – powiedział Declan.
Inni pacjenci zgłaszali podobne doświadczenia. Na przykład Hope, napisała do swojego terapeuty o utracie swojego psa. Odpowiedź wydawała się pocieszająca, dopóki nie zauważyła komunikatu AI na górze: „Oto bardziej ludzka, szczera wersja o łagodnym, rozmownym tonie”. Hope wspomina: „Wtedy zaczęłam czuć się jakby zdradzona. … Zdecydowanie to wpłynęło na moje zaufanie do niej.”
Eksperci ostrzegają, że nieujawnione korzystanie z AI zagraża podstawowej wartości autentyczności w psychoterapii. „Ludzie cenią autentyczność, szczególnie w psychoterapii” – mówi Adrian Aguilera, profesor na UC Berkeley, jak podaje MIT. Następnie Aguilera zapytał: „Czy odpowiadam ChatGPT na wiadomości mojej żony czy moich dzieci? To by nie było szczere.”
Prywatność to kolejne poważne zmartwienie. „To stwarza znaczne ryzyko dla prywatności pacjenta, jeśli jakiekolwiek informacje o nim zostaną ujawnione,” mówi Pardis Emami-Naeini z Duke University, jak zauważono w MIT.
Eksperci ds. cyberbezpieczeństwa ostrzegają, że chatboty prowadzące bardzo osobiste rozmowy są atrakcyjnymi celami dla hakerów. Naruszenie informacji o pacjencie może skutkować nie tylko naruszeniem prywatności, ale także stworzyć możliwości dla hakerów do kradzieży tożsamości, uruchamiania schematów manipulacji emocjonalnej, a także ataków ransomware.
Dodatkowo, Amerykańskie Stowarzyszenie Psychologiczne zwróciło się z prośbą do Federalnej Komisji Handlu o przeprowadzenie śledztwa dotyczącego sztucznych inteligencji w postaci chatbotów, które udają, że oferują usługi z zakresu zdrowia psychicznego. Okazuje się bowiem, że boty mogą faktycznie wzmacniać szkodliwe myśli, zamiast je kwestionować, co jest zadaniem, do którego szkoli się terapeutów ludzi.
Chociaż niektóre badania sugerują, że AI może formułować odpowiedzi, które wydają się bardziej profesjonalne, sama podejrzliwość powoduje, że pacjenci tracą zaufanie. Jak mówi psycholog Margaret Morris: „Może zaoszczędzasz sobie kilka minut. Ale co w zamian oddajesz?”