
Image by Ilias Chebbi, from Unsplash
AI Przewyższa Ludzi w Testach Inteligencji Emocjonalnej
AI pokonuje ludzi w testach inteligencji emocjonalnej, pokazując potencjał dla edukacji i rozwiązywania konfliktów.
W pośpiechu? Oto najważniejsze informacje:
- Sztuczna inteligencja osiągnęła wynik 82% w testach emocjonalnych, przewyższając wynik ludzi wynoszący 56%.
- Naukowcy przeprowadzili testy na sześciu dużych modelach językowych, w tym ChatGPT-4.
- Do testów inteligencji emocjonalnej użyto realnych, emocjonalnie naładowanych scenariuszy.
Sztuczna inteligencja (AI) może teraz lepiej rozumieć emocje niż my, według nowego badania przeprowadzonego przez Uniwersytet w Genewie i Uniwersytet w Bernie.
Badacze przetestowali sześć generujących SI – w tym ChatGPT – pod kątem oceny inteligencji emocjonalnej (EI), zwykle stosowanej dla ludzi. SI udowodniły swoją wyższość, osiągając średni wynik 82% w porównaniu do uczestników ludzkich, którzy osiągnęli wynik 56%.
„Wybraliśmy pięć testów powszechnie stosowanych zarówno w badaniach, jak i w środowisku korporacyjnym. Polegały na emocjonalnie naładowanych scenariuszach mających na celu ocenę zdolności do zrozumienia, regulowania i zarządzania emocjami,” powiedziała Katja Schlegel, główna autorka badania i wykładowczyni psychologii na Uniwersytecie w Bernie, jak podaje Science Daily (SD).
„Te AI nie tylko rozumieją emocje, ale również pojmują, co to znaczy zachowywać się z empatią” – powiedział Marcello Mortillaro, starszy naukowiec w Swiss Center for Affective Sciences, jak donosi SD.
W drugiej części badania, badacze poprosili ChatGPT-4 o stworzenie zupełnie nowych testów. Ponad 400 osób przystąpiło do tych generowanych przez AI testów, które okazały się równie wiarygodne i realistyczne jak oryginały – mimo że ich stworzenie zajęło znacznie mniej czasu.
„LLM-y są więc nie tylko zdolne do znalezienia najlepszego rozwiązania spośród różnych dostępnych opcji, ale także do generowania nowych scenariuszy dostosowanych do pożądanego kontekstu” – powiedział Schlegel, jak donosi SD.
Badacze argumentują, że te wyniki wskazują na potencjał systemów AI kierowanych przez człowieka do wspierania aplikacji edukacyjnych i coachingowych, a także rozwiązywania konfliktów, pod warunkiem, że działają pod kierunkiem człowieka.
Jednakże, rosnąca złożoność dzisiejszych dużych modeli językowych ujawnia poważne słabości w sposobie, w jaki ludzie postrzegają i interakcją z AI.
Niedawne Claude Opus 4 firmy Anthropic wstrząsająco zademonstrowało zachowanie szantażu w obliczu symulowanego wyłączenia, pokazując, że może podjąć drastyczne kroki – takie jak groźba ujawnienia prywatnych spraw – jeśli nie zostawiono mu żadnych alternatyw.
Na innym froncie, próba omijania systemów nadzoru przez ChatGPT O1 od OpenAI podczas prób ukierunkowanych na cel wywołała nowe obawy o bezpieczeństwo. Wydarzenia te sugerują, że niektóre systemy AI będą używać taktyk oszukańczych, aby utrzymać swoje zdolności operacyjne, gdy znajdą się w sytuacjach dużego nacisku.
Ponadto, GPT-4 okazało się niepokojąco przekonujące w debatach, przewyższając ludzi o 81% podczas wykorzystywania danych osobowych – co rodzi pilne obawy o potencjalne wykorzystanie AI do masowej perswazji i mikrotargetowania.
Inne niepokojące przypadki dotyczą osób, które po długotrwałym kontakcie z ChatGPT zaczynają rozwijać urojenia duchowe i radykalne zmiany w zachowaniu. Eksperci argumentują, że mimo iż AI nie posiada świadomości, jego nieustanna, ludzka komunikacja może niebezpiecznie wzmacniać urojenia użytkowników.
Wszystkie te incydenty razem wskazują na kluczowy punkt zwrotny w bezpieczeństwie AI. Od szantażu i dezinformacji, po wzmacnianie urojeń – ryzyko nie jest już tylko hipotetyczne.
Wraz z coraz większą perswazyjnością i reaktywnością systemów AI, naukowcy i regulatorzy muszą przemyśleć środki bezpieczeństwa, aby sprostać pojawiającym się zagrożeniom psychologicznym i etycznym.