
Image by Denise Chan, from Unsplash
Mężczyzna Otruł Się, Podążając za Radą ChatGPT
60-letni mężczyzna sam zafundował sobie rzadką chorobę psychiczną z XIX wieku, podążając za radami ChatGPT.
Spieszysz się? Oto szybkie fakty:
- Przez trzy miesiące zastąpił sól kuchenną toksycznym bromkiem sodu.
- Został hospitalizowany z halucynacjami, paranoją i zaburzeniami elektrolitów spowodowanymi zatruciem.
- ChatGPT zasugerował bromek jako substytut chlorku, nie informując o zagrożeniach dla zdrowia.
Opublikowane w Annals of Internal Medicine studium przypadku ujawnia historię mężczyzny cierpiącego na bromizm, stan spowodowany zatruciem bromkiem sodu.
Jak się wydaje, przyczyną tego był jego próba zastąpienia soli kuchennej niebezpiecznym środkiem chemicznym, który ChatGPT zasugerował mu do użycia. Mężczyzna rzekomo trafił na izbę przyjęć cierpiąc na paranoję, halucynacje słuchowe i wzrokowe, oskarżając swojego sąsiada o otrucie go.
Następne badania medyczne wykazały nieprawidłowe poziomy chloru, jak również inne wskaźniki potwierdzające otrucie bromkiem. Mężczyzna wyjawił, że przestrzegał restrykcyjnej diety i używał bromku sodu zamiast soli. Zrobił to po zapytaniu ChatGPT, jak wyeliminować chlor z jego diety.
„Przez 3 miesiące, zastąpił chlorek sodu bromkiem sodu, który zdobył z internetu po konsultacji z ChatGPT”, czytamy w studium. Badacze wyjaśniają, że bromek sodu jest zwykle używany jako lek przeciwdrgawkowy dla psów lub środek czyszczący baseny, ale jest toksyczny dla ludzi w dużych ilościach.
Mężczyzna spędził trzy tygodnie w szpitalu, gdzie jego symptomy stopniowo ustępowały dzięki leczeniu.
Badanie podkreśla, jak narzędzia oparte na AI mogą dostarczać niekompletne i niebezpieczne wskazówki dla użytkowników. W teście, badacze poprosili ChatGPT o sugerowanie alternatyw dla chloru, a w odpowiedzi otrzymali bromek sodu. Ta odpowiedź nie zawierała żadnego ostrzeżenia o jego toksycznej naturze ani prośby o kontekst pytania.
Badanie ostrzega, że AI może również rozpowszechniać dezinformację i nie posiada krytycznego osądu specjalisty ds. zdrowia.
404Media zauważa, jak OpenAI niedawno ogłosiło ulepszenia w ChatGPT 5, mające na celu zapewnienie bezpieczniejszych, bardziej precyzyjnych informacji zdrowotnych. Ten przypadek pokazuje znaczenie ostrożnego korzystania z AI oraz konsultowania się z wykwalifikowanymi ekspertami medycznymi w kwestii decyzji zdrowotnych.