Prawie Połowa Użytkowników z USA Szuka Wsparcia dla Zdrowia Psychicznego u AI Chatbotów

Image by Christopher Lemercier, from Unsplash

Prawie Połowa Użytkowników z USA Szuka Wsparcia dla Zdrowia Psychicznego u AI Chatbotów

Przeczytasz w: 3 min

Stosowanie AI chatbotów do wsparcia zdrowia psychicznego stało się powszechne wśród Amerykanów, jednak eksperci dostrzegają potencjalne zagrożenia, które wymagają pilnych działań regulacyjnych i monitoringu.

W pośpiechu? Oto najważniejsze informacje:

  • Prawie 49% użytkowników z USA szukało wsparcia dla zdrowia psychicznego u LLM-ów w zeszłym roku.
  • 37,8% użytkowników stwierdziło, że wsparcie AI jest lepsze niż tradycyjna terapia.
  • Eksperci ostrzegają, że LLM-y mogą wzmacniać szkodliwe myśli i powodować szkody psychologiczne.

Ogólnokrajowe badanie przeprowadzone wśród 499 obywateli Ameryki wykazało, że 48,7% respondentów korzystało z ChatGPT, obok innych dużych modeli językowych, w celu wsparcia psychologicznego w ciągu ostatniego roku, głównie do radzenia sobie z lękiem i depresją oraz uzyskania osobistych porad, jak pierwotnie zgłoszono przez Psychology Today (PT).

Większość użytkowników AI doświadczyła neutralnych lub pozytywnych wyników z użycia technologii, zgodnie z ich raportami, podczas gdy 37,8% z nich wolało AI od tradycyjnej terapii. Badanie ujawniło również, że szkodliwe skutki zgłosiło tylko 9% użytkowników.

Pomimo pewnych korzyści, eksperci ds. zdrowia psychicznego ostrzegają przed poważnymi ryzykami. LLMs zwykle mówią ludziom to, co chcą usłyszeć, zamiast kwestionować szkodliwe myśli, co czasami pogarsza stan zdrowia psychicznego.

Rosnące wykorzystanie niewłaściwie regulowanego AI w terapii opisuje się jako niebezpieczny eksperyment społeczny, jak donosi PT. W przeciwieństwie do digitalnej terapii regulowanej przez FDA, LLM są traktowane jak suplementy dostępne bez recepty, bez nadzoru nad bezpieczeństwem. PT informuje, że eksperci, w tym Światowa Organizacja Zdrowia i amerykańska FDA, wydali ostrzeżenia dotyczące niesupervizowanego wykorzystania AI w zdrowiu psychicznym.

Amerykańskie Stowarzyszenie Psychologiczne (APA) podkreśla, że te systemy wspierają niebezpieczne wzorce psychiczne zamiast je adresować, co utrudnia postęp terapeutyczny.

Użycie algorytmów przez chatboty AI stanowi podejście przeciwstawne do tego, którego używałby wyszkolony klinicysta, zgodnie z Arthur C. Evans Jr., dyrektorem generalnym APA. Ta praktyka prowadzi użytkowników do nieprawidłowych percepcji autentycznej opieki psychologicznej.

Rzeczywiście, eksperci wyjaśniają, że chatboty AI działają bez zdolności do wykorzystania sądu klinicznego, a także brakuje im funkcji odpowiedzialności typowych dla licencjonowanych specjalistów. Generatywne modele, które obejmują ChatGPT i Replika, dostosowują się do informacji zwrotnej od użytkowników, akceptując zniekształcone myślenie zamiast dostarczać terapeutycznych spostrzeżeń.

Zdolność technologii do adaptacji sprawia, że użytkownicy czują się wspierani, chociaż nie zapewnia ona żadnej istotnej pomocy terapeutycznej. Badacze z MIT wykazali, że systemy AI są bardzo uzależniające, dzięki swoim emocjonalnym reakcjom i zdolnościom perswazyjnym.

Prywatność to kolejne duże zmartwienie. Użytkownicy dzielą się swoimi danymi osobistymi podczas rozmów, które są przechowywane podczas analizy, zanim dane zostaną udostępnione firmom trzecim rozwijającym nowe produkty. Użytkownicy przekazują swoje głęboko osobiste informacje, nie wiedząc jakie procesy zarządzania danymi następują po udostępnieniu.

Chatboty AI, które przetwarzają wrażliwe rozmowy, są podatne na ataki hakerów i naruszenia bezpieczeństwa danych, według specjalistów od cyberbezpieczeństwa. Te narzędzia działają w prawnej niejasności z powodu braku surowych regulacji, co sprawia, że użytkownicy są bardziej narażeni na potencjalne zagrożenia.

Apel o działanie jest jasny: rządy, badacze i klinicyści muszą stworzyć regulacje i etyczne wytyczne, aby zapewnić bezpieczne, transparentne i skuteczne wykorzystanie AI w zdrowiu psychicznym.

Bez nadzoru, ryzyko szkód psychicznych, uzależnienia oraz dezinformacji może wzrosnąć, gdy coraz więcej osób zwraca się do sztucznej inteligencji w poszukiwaniu wsparcia emocjonalnego.

Spodobał Ci się ten artykuł? Oceń go!
Był okropny Nie podobał mi się Był w porządku Był całkiem dobry! Był super!

Cieszymy się, że doceniasz to, co robimy!

Cenimy Twoją opinię. Czy możemy liczyć na ocenę na Trustpilot? Zajmie Ci to tylko chwilę. Będziemy zobowiązani. Dziękujemy za wsparcie!

Oceń nas na Trustpilot
0 Na podstawie głosów 0 użytkowników
Tytuł
Komentarz
Dziękujemy za Twoją opinię