Pacjenci zaniepokojeni, gdy terapeuci potajemnie korzystają z ChatGPT podczas sesji

Image by Nik Shuliahin, from Unsplash

Pacjenci zaniepokojeni, gdy terapeuci potajemnie korzystają z ChatGPT podczas sesji

Przeczytasz w: 3 min

Niektórzy terapeuci tajemniczo zaczęli korzystać z ChatGPT do prowadzenia terapii swoich pacjentów, którzy teraz czują się zszokowani i zaniepokojeni o swoją prywatność.

W pośpiechu? Oto najważniejsze informacje:

  • Niektórzy terapeuci potajemnie używają ChatGPT podczas sesji bez zgody klienta.
  • Jeden pacjent odkrył, że jego terapeuta korzysta z AI dzięki błędowi w udostępnianiu ekranu.
  • Inna pacjentka zauważyła, że jej terapeutka używa AI, gdy w wiadomości pozostał monit.

Nowy raport opublikowany przez MIT Technology Review prezentuje przypadek Declana, 31-letniego mieszkańca Los Angeles, który odkrył, że jego terapeuta używa AI podczas sesji terapeutycznych, z powodu technicznego błędu.

Podczas sesji online, jego terapeuta przypadkowo udostępnił swój ekran. „Nagle zobaczyłem, jak korzysta z ChatGPT” – mówi Declan. „Brał to, co mówiłem i wprowadzał do ChatGPT, a potem podsumowywał lub wybierał odpowiedzi.”

Declan zdecydował się wejść w grę, nawet naśladując sformułowania AI. „Stałem się najlepszym pacjentem na świecie” – mówi. „Jestem pewien, że to było jego marzenie”. Jednak odkrycie skłoniło go do zadania pytania: „Czy to jest legalne?” Jego terapeuta później przyznał, że zwrócił się do AI, ponieważ czuł się zablokowany. „Wciąż musiałem zapłacić za tę sesję” – powiedział Declan.

Inni pacjenci zgłaszali podobne doświadczenia. Na przykład Hope, napisała do swojego terapeuty o utracie swojego psa. Odpowiedź wydawała się pocieszająca, dopóki nie zauważyła komunikatu AI na górze: „Oto bardziej ludzka, szczera wersja o łagodnym, rozmownym tonie”. Hope wspomina: „Wtedy zaczęłam czuć się jakby zdradzona. … Zdecydowanie to wpłynęło na moje zaufanie do niej.”

Eksperci ostrzegają, że nieujawnione korzystanie z AI zagraża podstawowej wartości autentyczności w psychoterapii. „Ludzie cenią autentyczność, szczególnie w psychoterapii” – mówi Adrian Aguilera, profesor na UC Berkeley, jak podaje MIT. Następnie Aguilera zapytał: „Czy odpowiadam ChatGPT na wiadomości mojej żony czy moich dzieci? To by nie było szczere.”

Prywatność to kolejne poważne zmartwienie. „To stwarza znaczne ryzyko dla prywatności pacjenta, jeśli jakiekolwiek informacje o nim zostaną ujawnione,” mówi Pardis Emami-Naeini z Duke University, jak zauważono w MIT.

Eksperci ds. cyberbezpieczeństwa ostrzegają, że chatboty prowadzące bardzo osobiste rozmowy są atrakcyjnymi celami dla hakerów. Naruszenie informacji o pacjencie może skutkować nie tylko naruszeniem prywatności, ale także stworzyć możliwości dla hakerów do kradzieży tożsamości, uruchamiania schematów manipulacji emocjonalnej, a także ataków ransomware.

Dodatkowo, Amerykańskie Stowarzyszenie Psychologiczne zwróciło się z prośbą do Federalnej Komisji Handlu o przeprowadzenie śledztwa dotyczącego sztucznych inteligencji w postaci chatbotów, które udają, że oferują usługi z zakresu zdrowia psychicznego. Okazuje się bowiem, że boty mogą faktycznie wzmacniać szkodliwe myśli, zamiast je kwestionować, co jest zadaniem, do którego szkoli się terapeutów ludzi.

Chociaż niektóre badania sugerują, że AI może formułować odpowiedzi, które wydają się bardziej profesjonalne, sama podejrzliwość powoduje, że pacjenci tracą zaufanie. Jak mówi psycholog Margaret Morris: „Może zaoszczędzasz sobie kilka minut. Ale co w zamian oddajesz?”

Spodobał Ci się ten artykuł? Oceń go!
Był okropny Nie podobał mi się Był w porządku Był całkiem dobry! Był super!

Cieszymy się, że doceniasz to, co robimy!

Cenimy Twoją opinię. Czy możemy liczyć na ocenę na Trustpilot? Zajmie Ci to tylko chwilę. Będziemy zobowiązani. Dziękujemy za wsparcie!

Oceń nas na Trustpilot
0 Na podstawie głosów 0 użytkowników
Tytuł
Komentarz
Dziękujemy za Twoją opinię