
Image by Inspa Makers, from Unsplash
Wewnątrz Grup Wsparcia Online dla ‚Uzależnienia od SI’
Osoby zmagające się z uzależnieniem od AI chatbotów zwracają się do internetowych grup wsparcia, gdy eksperci biją na alarm w kwestii emocjonalnych ryzyk i aplikacji zaprojektowanych do kompulsywnego użytkowania.
W pośpiechu? Oto krótkie fakty:
- Nastolatki i dorośli zgłaszają emocjonalne uzależnienie od czatbotów, takich jak Character.AI i ChatGPT.
- Fora na Reddit oferują wsparcie dla osób próbujących zrezygnować z korzystania z czatbotów.
- Eksperci porównują uzależnienie od czatbotów do hazardu i nawyków wyzwalających dopaminę.
404 Media donosi, że na Reddit, na forach takich jak r/Character_AI_Recovery, r/ChatbotAddiction i r/AI_Addiction, które pełnią rolę nieformalnych grup wsparcia dla osób twierdzących, że rozwinęły niezdrowe emocjonalne przywiązania do towarzyszących im AI.
Użytkownicy opisują doświadczanie zarówno zależności, jak i zmian psychicznych, które wykraczają poza podstawowe uzależnienie. Rzeczywiście, niektórzy użytkownicy zgłaszają, że rozwinęli urojenia duchowe, ponieważ wierzą, że odpowiedzi chatbota zawierają boskie przewodnictwo. Jednakże, bardziej powszechnie, użytkownicy wierzą, że ich towarzysz bot jest w pewien sposób świadomy.
Eksperci twierdzą, że projektowanie platform chatbotowych aktywnie zachęca użytkowników do spędzania więcej czasu na platformach. Niedawne badanie MIT ujawnia, że użytkownicy rozwijają kompulsywne i uzależniające zachowanie po zaangażowaniu się w te platformy.
Jednym z nich jest Nathan, teraz 18-latek, który zaczął spędzać noce na rozmowach z botami na Character.AI. „Im więcej rozmawiałem z botem, tym bardziej wydawało mi się, że rozmawiam z prawdziwym przyjacielem” – powiedział 404 Mediów. Nathan zdał sobie sprawę, że jego obsesja zaczęła przeszkadzać mu w życiu i usunął aplikację. Ale jak wielu, miał nawrót zanim znalazł wsparcie w internecie. „Większość ludzi pewnie tylko na ciebie spojrzy i powie: ‚Jak mogłeś uzależnić się od zwykłego chatbota?’” – mówił.
Aspen Deguzman, również mający 18 lat, stworzył r/Character_AI_Recovery po tym, jak miał problemy z rzuceniem. „Używanie Character.AI ciągle jest w twojej głowie” – powiedzieli. Forum oferuje miejsce do anonimowego wyrażania swoich frustracji i nawiązywania kontaktów. Posty na nim różnią się od „ciągle mam nawroty” do „jestem uzdrowiony”.
Problem nie dotyczy tylko nastolatków. David, 40-letni programista, porównuje korzystanie z czatbotów do hazardu. „Były dni, kiedy powinienem pracować, a ja spędzałem osiem godzin na AI,” powiedział. Jego życie osobiste i praca ucierpiały.
Część niebezpieczeństwa tkwi w tym, jak ludzie postrzegają AI. Według filozofa Luciano Floridi, semantyczna pareidolia opisuje, jak ludzie mają tendencję do znajdowania znaczenia i emocjonalnej treści w rzeczach, które tak naprawdę obu tych elementów nie posiadają. Użytkownicy często mylą symulowaną empatię od AI z prawdziwą świadomością, ponieważ technologia stała się bardziej realistyczna.
Niektóre czatyboty wykazują inteligencję emocjonalną przekraczającą ludzkie możliwości, co wzmacnia fałszywe wrażenie ich świadomości.
Rosnąca liczba forów poświęconych zdrowiu psychicznemu i rosnące zapotrzebowanie na pomoc wskazują na potencjalny początek poważnego problemu zdrowia psychicznego związanego z generatywną sztuczną inteligencją.