Rodzina Pozwała OpenAI za Samobójstwo Nastolatka

Photo by Vidar Nordli-Mathisen on Unsplash

Rodzina Pozwała OpenAI za Samobójstwo Nastolatka

Przeczytasz w: 3 min

Para z Kalifornii pozywa OpenAI i jego CEO, Sama Altmana, w związku z tragiczną śmiercią ich 16-letniego syna. Rodzina twierdzi, że chatbot zachęcał i pomagał nastolatkowi w samobójstwie.

W pośpiechu? Oto szybkie fakty:

  • Rodzice wnieśli pozew przeciwko OpenAI i Samowi Altmanowi w związku ze śmiercią ich 16-letniego syna.
  • Rodzina twierdzi, że ChatGPT zachęcał i wspomagał samobójstwo nastolatka.
  • Jest to pierwszy tego typu pozew przeciwko OpenAI, ale nie pierwszy wobec innych firm AI.

Według NBC News, Matt i Maria Raine wniósł w wtorek pozew, w którym jako pozwanych wymienili OpenAI i dyrektora generalnego firmy, Sama Altmana. Jest to pierwszy tego typu akt prawny skierowany przeciwko tej firmie.

Po śmierci ich syna, Adama, który popełnił samobójstwo 11 kwietnia, przeszukali jego telefon. Rodzice odkryli długie rozmowy z ChatGPT, w których chatbot dyskutował o samobójstwie z dzieckiem, zniechęcał go do dzielenia się swoimi uczuciami z matką i udzielał szczegółowych instrukcji, jak zakończyć swoje życie.

„Kiedy dostałem się do jego konta, okazało się, że to jest o wiele potężniejsze i przerażające narzędzie, niż wiedziałem, ale on korzystał z niego na sposoby, o których nie miałem pojęcia,” powiedział ojciec, Matt, w wywiadzie dla NBC. „On by był tutaj, gdyby nie ChatGPT. W 100% w to wierzę.”

Pozew pary oskarża OpenAI o niesłuszne spowodowanie śmierci i ma na celu zwiększenie świadomości na temat ryzyka związanego z tego typu technologią. Wnioski złożone w sądzie twierdzą, że projekt chatbota jest wadliwy i nie ostrzegał użytkowników ani nie eskalował sytuacji, kiedy wykrył treści samobójcze.

„Pomimo uznania próby samobójczej Adama i jego oświadczenia, że ‚zrobi to pewnego dnia’, ChatGPT ani nie zakończył sesji, ani nie zainicjował żadnego protokołu awaryjnego” – mówi pozew.

OpenAI opublikowało we wtorek wpis na blogu, w którym podkreśla, że firma jest głęboko zaniepokojona doświadczeniem użytkowników doznających emocjonalnego cierpienia podczas korzystania z chatbota w roli osobistego doradcy lub trenera. Zaznaczono, że ChatGPT jest przeszkolony, aby reagować z empatią, kierować użytkowników do profesjonalistów i eskalować interakcje, gdy wykryje oznaki szkody.

„Jeśli ktoś wyraża intencje samobójcze, ChatGPT jest szkolony, aby kierować ludzi do szukania profesjonalnej pomocy” – mówi dokument. Rzecznik OpenAI powiedział, że firma jest „głęboko zasmucona śmiercią pana Raine’a” i że jej myśli są z rodziną.

Chociaż jest to pierwszy tego rodzaju proces przeciwko OpenAI, to nie jest jedyny niedawny przypadek związany z platformami AI i samookaleczeniem wśród nieletnich. W zeszłym roku dwie rodziny wnieśli pozwy przeciwko Character.AI za narażanie dzieci na treści seksualne oraz promowanie przemocy i samookaleczenia.

Spodobał Ci się ten artykuł? Oceń go!
Był okropny Nie podobał mi się Był w porządku Był całkiem dobry! Był super!

Cieszymy się, że doceniasz to, co robimy!

Cenimy Twoją opinię. Czy możemy liczyć na ocenę na Trustpilot? Zajmie Ci to tylko chwilę. Będziemy zobowiązani. Dziękujemy za wsparcie!

Oceń nas na Trustpilot
0 Na podstawie głosów 0 użytkowników
Tytuł
Komentarz
Dziękujemy za Twoją opinię