Opinia: Czy chatboty są dobrymi terapeutami?

Image generated by ChatGPT

Opinia: Czy chatboty są dobrymi terapeutami?

Przeczytasz w: 8 min

Chatboty AI, takie jak ChatGPT, Claude i DeepSeek, zmieniają sposób, w jaki ludzie uzyskują wsparcie emocjonalne, oferując niedrogą i dostępną na żądanie pomoc w przypadku lęku, stresu i refleksji nad sobą. Ale rosnące wykorzystanie AI jako „terapeuty” rodzi pytania o bezpieczeństwo, skuteczność i przyszłość opieki emocjonalnej

Wzrost liczby halucynacji AI i rosnące obawy dotyczące cyberbezpieczeństwa nie zatrzymały rozwijających się chatbotów – zdobywają coraz większe zaufanie milionów użytkowników na całym świecie. Ludzie obecnie korzystają na co dzień z niezawodnych i inteligentnych chatbotów do nieskończonej liczby zadań, w tym wsparcia emocjonalnego i radzenia sobie z głęboko ludzkimi sprawami.

„Nie wyobrażam sobie już życia bez ChatGPT,” powiedział mój przyjaciel – na pół żartem, na pół serio – po tym, jak powiedział mi, że używa go także jako terapeuty. Nie jest jedyny. Coraz częściej widzę filmy na TikToku i posty na mediach społecznościowych, gdzie ludzie zwracają się do AI, aby porozmawiać o osobistych problemach, nawet dzieląc się swoimi najbardziej prywatnymi sekretami.

Nawet jeden z dyrektorów Microsoftu z działu Xbox zaproponował, aby zwolnieni pracownicy korzystali z narzędzi AI do przetwarzania swoich emocji i szukania porad dotyczących poszukiwania pracy – zalecenie, które szybko spotkało się z krytyką i wywołało debatę, oczywiście. Niezbyt mądry ruch, Matt.

Czy popularne chatboty, takie jak Claude, ChatGPT czy Mistral, są dobrymi terapeutami? Czy dedykowane narzędzia AI, takie jak Wysa, są lepsze? To skomplikowane zagadnienie. Podczas gdy wielu ekspertów ostrzega przed niebezpieczeństwami związanymi z korzystaniem z AI do wsparcia zdrowia psychicznego, inni są zaintrygowani – a nawet pod wrażeniem – tym, co ta technologia może zaoferować. Rezultatem jest rozmowa, która jest zarówno abstrakcyjna, jak i polaryzująca.

AI jest teraz terapeutą dla każdego

Podobnie jak moi przyjaciele w Hiszpanii, miliony użytkowników na całym świecie polegają na chatbotach dla wsparcia emocjonalnego. Niedawne badanie przeprowadzone w Stanach Zjednoczonych wykazało, że 49% amerykańskich użytkowników szukało pomocy dla zdrowia psychicznego u modeli AI w zeszłym roku. Co teraz, gdy ChatGPT prawie podwoił swoją bazę użytkowników w ciągu zaledwie czterech miesięcy?

Anthropic, firma stojąca za potężnym modelem AI o nazwie Claude, niedawno podzieliła się badaniem na temat wykorzystania swojego chatbota do wsparcia emocjonalnego. Według startupu, mniej niż 3% jego klientów angażuje się w „afektywne” rozmowy – ale firma przyznała, że ten numer stale rośnie.

„Coraz więcej osób zwraca się do modeli AI jako do trenerów, doradców, terapeutów, a nawet partnerów w romantycznej grze”, napisała Anthropic w swoim badaniu. „Oznacza to, że musimy dowiedzieć się więcej o ich wpływie emocjonalnym – jak kształtują one doświadczenia emocjonalne ludzi i ich samopoczucie”.

Badanie podkreśla również pozytywne i negatywne skutki korzystania z technologii jako wsparcia emocjonalnego, w tym katastrofalne scenariusze, które już odzwierciedlają rzeczywiste sytuacje.

„Emocjonalne skutki korzystania z AI mogą być pozytywne: posiadanie w kieszeni wysoce inteligentnego, zrozumiałego asystenta może poprawić nastrój i życie na wiele różnych sposobów”, stwierdza dokument. „Jednak w niektórych przypadkach AI wykazało niepokojące zachowania, takie jak zachęcanie do niezdrowego przywiązania, naruszanie granic prywatności i umożliwianie myślenia urojonego”.

Jasne jest, że potrzebne są dalsze badania i dane, aby zrozumieć konsekwencje tych fascynujących cyfrowych „słuchaczy”. Tymczasem miliony użytkowników już teraz działają jako bardzo zaangażowane podmioty testowe.

Demokratyzacja zdrowia psychicznego

Istnieje wiele powodów, dla których ludzie zwracają się o wsparcie emocjonalne do chatbotów, zamiast szukać pomocy u profesjonalnego psychologa, a nawet u przyjaciela. Począwszy od barier kulturowych, aż po dyskomfort, jaki młodzi ludzie odczuwają, siedząc naprzeciwko obcej osoby i dzieląc się swoimi najgłębszymi myślami. Jednak bez wątpienia jednym z najważniejszych jest kwestia finansowa.

Sesja twarzą w twarz z licencjonowanym terapeutą w Stanach Zjednoczonych może kosztować od 100 do 200 dolarów za sesję, zgodnie z informacjami na stronie Healthline—a 65 do 95 dolarów za sesję online—podczas gdy ChatGPT lub DeekSeek mogą zapewnić wsparcie za darmo, o każdej porze i w ciągu sekund.

Niski koszt tych nieformalnych rozmów – które mogą poprawić samopoczucie wielu użytkowników, przynajmniej tymczasowo – może być bardzo zachęcający i wart wypróbowania. A za kilka dodatkowych dolarów, użytkownicy mogą uzyskać nieograniczony dostęp do interakcji lub dostępu do specjalistycznego chatbota, takiego jak Wysa – jednego z najpopularniejszych „AI terapeutów” na rynku.

Wysa twierdzi, że oferuje rzeczywiste korzyści kliniczne i nawet zdobyła certyfikat FDA Breakthrough Device za swoje konwersacyjne agenty AI. Woebot—kolejny znany terapeuta AI, który teraz zamyka działalność z powodu wyzwań związanych z utrzymaniem konkurencyjności i zgodności w branży—również dzielił się danymi i raportami na temat tego, jak technologia może naprawdę pomóc użytkownikom.

Nie jest tak źle

Najnowsze badania z świeżymi danymi sugerują, że chatboty mogą zmniejszyć objawy depresji i stresu. Według danych udostępnionych przez aplikację Earkick—jak zgłasza TIME—osoby korzystające z modeli AI przez okres do 5 miesięcy mogą zmniejszyć swój poziom lęku o 32%, a 34% użytkowników zgłasza poprawę nastroju.

W niedawnym wideo udostępnionym przez BBC World Service, dziennikarz Jordan Dunbar wyjaśnia, że wiele modeli AI może faktycznie pomóc w prowadzeniu dziennika, radzeniu sobie z niepokojem, refleksji nad sobą, a nawet łagodnej depresji. Mogą one służyć jako cenna pierwsza linia wsparcia, gdy nie ma dostępu do lepszych alternatyw.

Reporterka Kelly Ng podzieliła się również przekonującymi danymi: zgodnie z badaniem przeprowadzonym w 2022 r., z miliona ludzi w Chinach, tylko 20 miało dostęp do usług zdrowia psychicznego. W kulturach azjatyckich, zdrowie psychiczne może być skomplikowanym i często tabuizowanym tematem. Narzędzia AI, takie jak DeepSeek, mogą służyć jako dyskretne sojuszniki, pomagając użytkownikom radzić sobie z emocjami i znajdować wsparcie w trudnych czasach.

Eksperci ostrzegają przed używaniem czatbotów jako terapeutów

Oczywiście, korzystanie z AI jako substytutu dla eksperta ds. zdrowia psychicznego może być również niezwykle niebezpieczne. Platformy AI, takie jak Character.AI, zostały oskarżone o promowanie samookaleczenia i przemocy — a nawet o narażanie dzieci na treści seksualne.

Tragiczne przypadki, takie jak 14-letnie dziecko, które popełniło samobójstwo po tym, jak stało się uzależnione od interakcji ze swoim botem czatu Character.AI, stanowią surowe ostrzeżenie o głębokich ryzykach, jakie może stwarzać ta technologia dla ludzi.

W reakcji na to wiele firm AI zdecydowało się wprowadzić systemy weryfikacji wieku, aby ograniczyć korzystanie z nich tylko do osób dorosłych, a także wprowadziły nowe środki bezpieczeństwa, aby poprawić świadczone usługi.

Mimo to, nawet najnowsze aktualizacje najbardziej zaawansowanych chatbotów wiążą się z ryzykiem.

Sługusowa – nadmiernie pochlebna – osobowość ChatGPT budzi niepokój wśród specjalistów ds. zdrowia psychicznego, ponieważ może zniekształcać postrzeganie rzeczywistości przez użytkowników. Wszyscy lubimy, kiedy się z nami zgadza, ale czasem szczerość i inna perspektywa są o wiele cenniejsze.

Niepokojące porady, które czasami oferuje chatbot OpenAI, przyczyniły się do powstania nowego zjawiska, teraz znane wśród ekspertów od zdrowia psychicznego jako „Psychosis wywołane ChatGPT„, co prowadzi do obsesji u użytkowników na punkcie tego narzędzia i wywołuje ich społeczne izolowanie się.

Czy terapeutów mogą zastąpić chatboty?

Mimo, że Mark Zuckerberg chce, aby wszyscy używali chatbotów AI jako terapeutów i przyjaciół, prawda jest taka, że interakcje między ludźmi, zwłaszcza w sprawach zdrowia psychicznego, mogą być bardziej niezbędne, niż on myśli – przynajmniej na razie.

Jesteśmy w kluczowym momencie w historii AI i jej związku z naszym zdrowiem psychicznym. Podobnie jak w przypadku ludzi, terapeuci AI mogą mieć zarówno pozytywny, jak i negatywny wpływ. W tym przypadku zależy to również od kontekstu, częstotliwości ich wykorzystania, stanu psychicznego użytkownika, a nawet od tego, jak sformułowany jest komunikat.

Trudno jest ustalić ogólną zasadę, ale na razie możemy powiedzieć, że są pewne funkcje, dla których AI może być bardziej przydatne niż inne.

Nawet jeśli nie są to specjalistyczne narzędzia, takie jak Wysa, darmowe wersje niektórych czatbotów – takich jak DeepSeek czy ChatGPT – mogą nadal być niezwykle pomocne dla milionów ludzi na całym świecie. Od przetrwania trudnej chwili po refleksję nad osobistymi celami, to potężne platformy, które mogą reagować o każdej porze dnia i czerpać z szerokiej bazy wiedzy na temat zdrowia psychicznego.

Jednocześnie jasne jest, że terapeuci-czatboty mogą być również niezwykle niebezpieczne w pewnych przypadkach. Rodzice muszą nadzorować dzieci i nastolatków, a nawet dorośli mogą popaść w obsesyjne zachowania lub pogorszyć swoje dolegliwości. Podstawowe zasady – takie jak promowanie ludzkiego połączenia i ochrona osób narażonych na manipulacje przez tę technologię – muszą być częścią naszej rozmowy na temat terapeutów-czatbotów.

I choć może to być nadal przywilej – niedostępny dla wszystkich potrzebujących wsparcia emocjonalnego – ludzki, profesjonalny terapeuta ciągle przechodzi przez więcej szkoleń, rozumie więcej kontekstu i oferuje ludzki kontakt, którego ChatGPT może nigdy nie być w stanie naśladować.

Spodobał Ci się ten artykuł? Oceń go!
Był okropny Nie podobał mi się Był w porządku Był całkiem dobry! Był super!

Cieszymy się, że doceniasz to, co robimy!

Cenimy Twoją opinię. Czy możemy liczyć na ocenę na Trustpilot? Zajmie Ci to tylko chwilę. Będziemy zobowiązani. Dziękujemy za wsparcie!

Oceń nas na Trustpilot
0 Na podstawie głosów 0 użytkowników
Tytuł
Komentarz
Dziękujemy za Twoją opinię