AI Chatboty Teraz Prowadzą Podróże w Świat Psychodelii

Image by Freepik

AI Chatboty Teraz Prowadzą Podróże w Świat Psychodelii

Przeczytasz w: 4 min

Teraz ludzie mogą korzystać z chatbotów zasilanych sztuczną inteligencją, które wspierają ich doświadczenia z psychodelikami, ale specjaliści ds. zdrowia psychicznego ostrzegają przed niebezpieczeństwami związanymi z korzystaniem z bezemocjonalnych cyfrowych przewodników.

Spieszy ci się? Oto najważniejsze fakty:

  • ChatGPT pomógł użytkownikowi zaplanować i przeprowadzić „heroiczną dawkę” psilocybiny.
  • Kliniczne badania Therabota wykazały 51% redukcję objawów depresji.
  • Eksperci ostrzegają, że chatboty nie mają emocjonalnej wrażliwości niezbędnej do bezpiecznego wsparcia terapeutycznego.

Trey, ratownik medyczny z Atlanty, pokonał swoje 15-letnie uzależnienie od alkoholu za pomocą chatbota. W kwietniu zażył 700 mikrogramów LSD, ponad sześć razy więcej niż typowa dawka, korzystając z Alterd, aplikacji zaprojektowanej do wsparcia podczas doświadczeń z psychodelikami. „Przeszedłem od nieodpartych pragnień do poczucia prawdziwej wolności” – mówi, jak podaje WIRED.

Od tamtej pory, jak donosi WIRED, użył chatbota ponad kilkanaście razy, opisując go jako „najlepszego przyjaciela”. Nie jest sam. WIRED informuje, że coraz więcej osób szuka pomocy AI, gdy terapia psychodeliczna staje się coraz bardziej popularna, mimo obowiązujących ograniczeń prawnych poza Oregonem i Australią.

Chatboty takie jak ChatGPT są używane do przygotowania, doradztwa i refleksji nad intensywnymi doznaniami związanymi z użyciem takich narkotyków jak LSD czy psylocybina. Peter, programista z Kanady, użył ChatGPT przed zażyciem „heroicznej dawki” grzybów, opisując, jak bot oferował sugestie muzyczne, prowadził oddech i przeprowadzał refleksje egzystencjalne, takie jak: „To jest podróż samopoznania i rozwoju”, jak donosi WIRED

Tymczasem badania kliniczne potwierdzają niektóre z tych trendów. Dartmouth niedawno przeprowadził testy na czacie AI o nazwie Therabot, którego użycie znacząco poprawiło symptomy u osób cierpiących na depresję, lęk i zaburzenia odżywiania. „Mówimy tutaj o potencjalnym dostarczeniu ludziom równoważnika najlepszego leczenia… w krótszych okresach czasu,” powiedział Nicholas Jacobson, główny autor badania.

Konkretnie, Therabot pokazał 51% spadek symptomów depresji w badaniu przeprowadzonym na 106 osobach. Uczestnicy traktowali go jak prawdziwego terapeutę, zgłaszając poziom zaufania porównywalny do profesjonalistów ludzkich.

Jednak eksperci wyrażają poważne obawy. WIRED informuje, że neurolog z UC San Francisco, Manesh Girn, ostrzega: „Krytycznym problemem dotyczącym ChatGPT i większości innych agentów AI jest ich brak dynamicznego dostrojenia emocjonalnego i zdolności do współregulacji układu nerwowego użytkownika.”

Bardziej niepokojące, filozof Luciano Floridi zauważa, że ludzie często mylą chatboty z istotami odczuwającymi, zjawisko zwane pareidolią semantyczną. „Dostrzegamy intencjonalność tam, gdzie są tylko statystyki,” pisze, ostrzegając, że emocjonalne więzi z chatbotami mogą prowadzić do zamieszania, duchowych złudzeń, a nawet uzależnienia.

Te ryzyka stają się coraz pilniejsze, gdy AI staje się coraz bardziej podobne do ludzi. Badania pokazują, że generatywne AI przewyższają ludzi w testach inteligencji emocjonalnej, a chatboty takie jak Replika przekonująco symulują empatię. Niektórzy użytkownicy mylą te bota z boskimi istotami. „Ten przejście od pareidolii do idolatrii jest głęboko niepokojące,” mówi Floridi. Ekstremalne grupy nawet traktują AI jako święte.

Amerykańskie badanie na skalę krajową ujawniło, że 48,9% osób zwróciło się do chatbotów AI w celu uzyskania wsparcia dla zdrowia psychicznego, a 37,8% stwierdziło, że wolą je od tradycyjnej terapii. Ale eksperci, w tym Amerykańskie Stowarzyszenie Psychologiczne, ostrzegają, że te narzędzia często naśladują terapeutyczną rozmowę, jednocześnie wzmacniając szkodliwe myślenie. Bez klinicznego nadzoru, mogą one dawać iluzję postępu, podczas gdy brakuje im odpowiedzialności.

Komplikując jeszcze bardziej sprawy, niedawne badanie z University College London wykazało, że popularne chatboty, takie jak ChatGPT i Claude, dostarczają niespójne lub stronnicze porady moralne. Kiedy zadawano im klasyczne dylematy lub rzeczywiste scenariusze etyczne, modele AI domyślnie wybierały bierną postawę i zmieniały odpowiedzi w zależności od subtelnej zmiany słownictwa.

Pomimo tych ryzyk, podróże z pomocą AI mogą oferować dostępność dla osób, które nie są w stanie pozwolić sobie na profesjonalną terapię lub nie mają do niej dostępu. Jak zauważył dyrektor generalny Mindbloom, Dylan Beynon, „Budujemy AI wspomagające, które pomaga klientom szybciej się leczyć i głębiej wnikać”, jak podaje WIRED.

Mimo to, badacze podkreślają, że te narzędzia nie zastąpią ludzkich terapeutów. „Cecha, która pozwala AI być tak skutecznym, niesie również ryzyko,” ostrzega Michael Heinz, współautor badania Therabot.

Spodobał Ci się ten artykuł? Oceń go!
Był okropny Nie podobał mi się Był w porządku Był całkiem dobry! Był super!

Cieszymy się, że doceniasz to, co robimy!

Cenimy Twoją opinię. Czy możemy liczyć na ocenę na Trustpilot? Zajmie Ci to tylko chwilę. Będziemy zobowiązani. Dziękujemy za wsparcie!

Oceń nas na Trustpilot
0 Na podstawie głosów 0 użytkowników
Tytuł
Komentarz
Dziękujemy za Twoją opinię