Photo by Inspa Makers on Unsplash
OpenAI Wprowadzi Zabezpieczenia dla Zdrowia Psychicznego dla ChatGPT
OpenAI zapowiedziało nowe zmiany w swoim sztucznym inteligentnym chatbocie, ChatGPT, w poniedziałek, włączając w to wprowadzenie zabezpieczeń zdrowia psychicznego, mających na celu wsparcie użytkowników znajdujących się w sytuacji podatności. Aktualizacje zostały zaprojektowane, aby zapobiec podejmowaniu decyzji przez ChatGPT za użytkowników i będą zawierać przypomnienia o konieczności robienia przerw po długotrwałych interakcjach z systemem AI.
W pośpiechu? Oto szybkie fakty:
- OpenAI ogłosiło zmiany w ChatGPT, w tym zabezpieczenia dotyczące zdrowia psychicznego.
- Chatbot będzie wysyłał przypomnienia, aby użytkownicy robili przerwy po długotrwałych interakcjach.
- Aktualizacje zostały wprowadzone po wielokrotnych raportach o użytkownikach, którzy stawali się zbyt przywiązani do ChatGPT, doświadczając pogorszenia zdrowia psychicznego, a także przypadków psychozy AI.
Zgodnie z oficjalnym ogłoszeniem, OpenAI planuje uczynić ChatGPT bardziej użytecznym, a także poprawić i zoptymalizować jego działanie. Firma przyznaje, że poprzednie aktualizacje sprawiły, że model AI stał się „zbyt uległy” i że wielu ludzi korzysta z niego jako z terapeuty w trudnych czasach.
„Sztuczna inteligencja może wydawać się bardziej reaktywna i osobista niż wcześniejsze technologie, zwłaszcza dla osób wrażliwych doświadczających psychicznego lub emocjonalnego cierpienia”, napisało OpenAI. „Dla nas, pomoc w osiąganiu dobrobytu oznacza bycie obecnym, gdy jesteś w trudnej sytuacji, pomaganie Ci kontrolować swój czas i prowadzenie – nie decydowanie – gdy stajesz przed osobistymi wyzwaniami.”
ChatGPT został teraz przeszkolony, aby lepiej rozpoznawać, kiedy użytkownik ma emocjonalne lub psychiczne problemy, i dostarczać bardziej odpowiednie odpowiedzi. Te zmiany nastąpiły po kilku raportach o użytkownikach, którzy zbytnio przywiązali się do ChatGPT, pogorszeniu się ich zdrowia psychicznego, oraz pojawieniu się przypadków opisywanych jako „psychosis AI.”
„Występowały sytuacje, w których nasz model 4o nie radził sobie z rozpoznawaniem oznak urojeń czy emocjonalnej zależności” – wyjaśniło OpenAI, dodając, że wdrażane są nowe narzędzia, które lepiej wykryją potencjalne problemy zdrowia psychicznego.
System AI będzie również zawierał okresowe przypomnienia dla użytkowników o konieczności robienia przerw od interakcji i skoncentruje się na pomocy użytkownikom w dochodzeniu do własnych wniosków poprzez zadawanie więcej pytających pytań, zamiast udzielania bezpośrednich odpowiedzi. Ten podejście jest podobne do nowego trybu nauki ChatGPT, w którym wspiera uczniów, zachęcając do krytycznego myślenia i zadając pytania sokratejskie, zamiast po prostu dostarczać rozwiązania.
OpenAI zaznaczyło również, że ścisła współpraca z szerokim gronem ekspertów – w tym lekarzami ogólnymi, psychiatrami i pediatrami – jest prowadzona, aby zapewnić, że ChatGPT oferuje istotną pomoc w kluczowych momentach. Firma stworzyła również grupę doradczą, która konsultuje się z profesjonalistami zdrowia psychicznego i kieruje rozwojem tych funkcji.