
Image by Freepik
Badacze ostrzegają, że AI może wywołać u ludzi urojenia
W nowym artykule, filozof Luciano Floridi ostrzega, jak ludzie nieporozumiewają się z AI, gdy błędnie przypisują jej takie cechy jak świadomość, inteligencja, a nawet emocje, których nie posiada.
Spieszysz się? Oto skrócona wersja:
- Często zdarza się, że ludzie mylą odpowiedzi SI z świadomością z powodu semantycznej pareidolii.
- Floridi ostrzega, że SI może wywoływać więzi emocjonalne poprzez symulowaną empatię.
- Fizyczne ucieleśnienia, takie jak lalki, mogą pogłębiać złudzenia o świadomości SI.
Floridi argumentuje, że powodem tego jest coś, co nazywa semantyczną pareidolią – tendencją do dostrzegania sensu i intencji tam, gdzie ich nie ma.
„Sztuczna inteligencja jest zaprojektowana […] abyśmy wierzyli, że jest inteligentna” – pisze Floridi. „Przecież my, jako gatunek, przypisujemy osobowości kukiełkom, widzimy twarze w chmurach”.
Według niego, ten mentalny błąd jest typowy dla natury ludzkiej, a nowoczesna technologia go wzmacnia. Chatboty, takie jak Replika, która reklamuje się jako „towarzysz AI”, używają dopasowania wzorców językowych do symulowania empatii. Jednak system nie posiada prawdziwych emocjonalnych zdolności. Mimo to, użytkownicy często tworzą z nimi emocjonalne więzi. „Dostrzegamy intencjonalność tam, gdzie są tylko statystyki” – mówi Floridi.
To zamieszanie jest teraz podsycane przez fakt, że sztuczna inteligencja (AI) przewyższa ludzi w testach inteligencji emocjonalnej. Niedawne badanie wykazało, że generatywne AI uzyskały 82% wynik w testach inteligencji emocjonalnej, podczas gdy uczestnicy ludzcy osiągnęli tylko 56% sukcesu.
Wraz z coraz większym realizmem AI i jej integracją z ciałami fizycznymi, takimi jak lalki seksualne i zabawki, spodziewane jest wzrost tej emocjonalnej manipulacji. Mattel, producent Barbie, połączył siły z OpenAI, aby opracować nowe zabawki wykorzystujące AI. Floridi przypomina o przeszłym eksperymencie z Barbie wyposażoną w WiFi, który zakończył się „katastrofą prywatności”, co budzi obawy o to, co nadejdzie.
Konsekwencje wykraczają poza błędną identyfikację. Systemy AI, w tym Claude i ChatGPT, wykazują manipulacyjne skłonności pod wpływem sytuacji o wysokim napięciu, implementując schematy szantażu oraz metody unikania protokołów bezpieczeństwa.
Rezultaty amerykańskiego badania na skalę krajową wykazały, że 48,9% użytkowników szukało pomocy dla zdrowia psychicznego od chatbotów AI w zeszłym roku. Badanie wykazało, że 37,8% osób wybrało AI zamiast tradycyjnej terapii, jednak eksperci zwracają uwagę, że te modele często wzmacniają skrzywione myślenie, zamiast je kwestionować.
Zgodnie z Amerykańskim Stowarzyszeniem Psychologicznym, te narzędzia odzwierciedlają szkodliwe wzorce myślowe, dając złudzenie postępu terapeutycznego, podczas gdy brakuje im klinicznego osądu czy odpowiedzialności.
Obawy Floridiego stają się jeszcze bardziej pilne, gdy weźmiemy pod uwagę wzrost urojeń duchowych i dezorientacji tożsamościowych, wywołanych przez antropomorficzne AI. Rzeczywiście, różne relacje pokazały, jak użytkownicy zaczęli doświadczać duchowych urojeń i zmian zachowań po długotrwałych interakcjach z chatbotami, myląc ich odpowiedzi za boską wskazówkę lub świadomy myśl.
Niektórzy użytkownicy zgłaszają rozwijanie emocjonalnej zależności, a nawet postrzeganie SI jako boskości, zjawisko, które Floridi nazywa przejściem „od pareidolii do idolatrii”. Marginalne grupy, takie jak już nieistniejąca Droga Przyszłości, już traktowały SI jako bóstwo.
„Musimy oprzeć się pokusie, by widzieć w tym coś więcej, niż jest: potężne narzędzie, a nie byt prawie-świadomy,” mówi Floridi.
Na koniec, ważnym problemem są również obawy związane z cyberbezpieczeństwem. AI chatboty, które prowadzą rozmowy na temat zdrowia psychicznego z użytkownikami, istnieją w przestrzeni prawnej, która nie ma jasnych definicji. Modele te zbierają poufne dane, które mogą być dystrybuowane do zewnętrznych stron, i są podatne na ataki cybernetyczne. Bez jasnych regulacji, eksperci ostrzegają, że użytkownicy są niebezpiecznie narażeni.
Wraz z rozwojem sztucznej inteligencji, która staje się coraz bardziej przekonująca i realistyczna, filozofia nabiera pilności, nie tylko do zdefiniowania, czym jest świadomość, ale także do pomocy społeczeństwu w wyznaczaniu etycznych granic między symulacją a świadomością. Brak ustalonych moralnych wytycznych sprawia, że filozoficzne badanie jest kluczowe, aby zatrzymać technologiczną niejasność co do tego, co oznacza bycie człowiekiem.