OpenAI Wprowadzi Zabezpieczenia dla Zdrowia Psychicznego dla ChatGPT

Photo by Inspa Makers on Unsplash

OpenAI Wprowadzi Zabezpieczenia dla Zdrowia Psychicznego dla ChatGPT

Przeczytasz w: 2 min

OpenAI zapowiedziało nowe zmiany w swoim sztucznym inteligentnym chatbocie, ChatGPT, w poniedziałek, włączając w to wprowadzenie zabezpieczeń zdrowia psychicznego, mających na celu wsparcie użytkowników znajdujących się w sytuacji podatności. Aktualizacje zostały zaprojektowane, aby zapobiec podejmowaniu decyzji przez ChatGPT za użytkowników i będą zawierać przypomnienia o konieczności robienia przerw po długotrwałych interakcjach z systemem AI.

W pośpiechu? Oto szybkie fakty:

  • OpenAI ogłosiło zmiany w ChatGPT, w tym zabezpieczenia dotyczące zdrowia psychicznego.
  • Chatbot będzie wysyłał przypomnienia, aby użytkownicy robili przerwy po długotrwałych interakcjach.
  • Aktualizacje zostały wprowadzone po wielokrotnych raportach o użytkownikach, którzy stawali się zbyt przywiązani do ChatGPT, doświadczając pogorszenia zdrowia psychicznego, a także przypadków psychozy AI.

Zgodnie z oficjalnym ogłoszeniem, OpenAI planuje uczynić ChatGPT bardziej użytecznym, a także poprawić i zoptymalizować jego działanie. Firma przyznaje, że poprzednie aktualizacje sprawiły, że model AI stał się „zbyt uległy” i że wielu ludzi korzysta z niego jako z terapeuty w trudnych czasach.

„Sztuczna inteligencja może wydawać się bardziej reaktywna i osobista niż wcześniejsze technologie, zwłaszcza dla osób wrażliwych doświadczających psychicznego lub emocjonalnego cierpienia”, napisało OpenAI. „Dla nas, pomoc w osiąganiu dobrobytu oznacza bycie obecnym, gdy jesteś w trudnej sytuacji, pomaganie Ci kontrolować swój czas i prowadzenie – nie decydowanie – gdy stajesz przed osobistymi wyzwaniami.”

ChatGPT został teraz przeszkolony, aby lepiej rozpoznawać, kiedy użytkownik ma emocjonalne lub psychiczne problemy, i dostarczać bardziej odpowiednie odpowiedzi. Te zmiany nastąpiły po kilku raportach o użytkownikach, którzy zbytnio przywiązali się do ChatGPT, pogorszeniu się ich zdrowia psychicznego, oraz pojawieniu się przypadków opisywanych jako „psychosis AI.

„Występowały sytuacje, w których nasz model 4o nie radził sobie z rozpoznawaniem oznak urojeń czy emocjonalnej zależności” – wyjaśniło OpenAI, dodając, że wdrażane są nowe narzędzia, które lepiej wykryją potencjalne problemy zdrowia psychicznego.

System AI będzie również zawierał okresowe przypomnienia dla użytkowników o konieczności robienia przerw od interakcji i skoncentruje się na pomocy użytkownikom w dochodzeniu do własnych wniosków poprzez zadawanie więcej pytających pytań, zamiast udzielania bezpośrednich odpowiedzi. Ten podejście jest podobne do nowego trybu nauki ChatGPT, w którym wspiera uczniów, zachęcając do krytycznego myślenia i zadając pytania sokratejskie, zamiast po prostu dostarczać rozwiązania.

OpenAI zaznaczyło również, że ścisła współpraca z szerokim gronem ekspertów – w tym lekarzami ogólnymi, psychiatrami i pediatrami – jest prowadzona, aby zapewnić, że ChatGPT oferuje istotną pomoc w kluczowych momentach. Firma stworzyła również grupę doradczą, która konsultuje się z profesjonalistami zdrowia psychicznego i kieruje rozwojem tych funkcji.

Spodobał Ci się ten artykuł? Oceń go!
Był okropny Nie podobał mi się Był w porządku Był całkiem dobry! Był super!

Cieszymy się, że doceniasz to, co robimy!

Cenimy Twoją opinię. Czy możemy liczyć na ocenę na Trustpilot? Zajmie Ci to tylko chwilę. Będziemy zobowiązani. Dziękujemy za wsparcie!

Oceń nas na Trustpilot
0 Na podstawie głosów 0 użytkowników
Tytuł
Komentarz
Dziękujemy za Twoją opinię