Photo by Karla Rivera on Unsplash
OpenAI Ogłasza Nowe Środki Bezpieczeństwa Dla Nastolatków
OpenAI ogłosiło w wtorek, że wprowadzi nowe środki bezpieczeństwa w celu ochrony nastolatków, swobody użytkowników i ogólnego bezpieczeństwa. Prezes firmy, Sam Altman, wydał oświadczenie, w którym stwierdził, że firma buduje system weryfikacji wieku, aby zapobiec rozmowom chatbota na tematy takie jak samookaleczenia czy samobójstwo, a także angażowaniu się w flirte z niepełnoletnimi użytkownikami.
W pośpiechu? Oto szybkie fakty:
- OpenAI opracowuje system weryfikacji wieku, aby zapobiec omawianiu przez chatbota tematów takich jak samobójstwo i samookaleczenie.
- Może to wymagać od użytkowników ChatGPT dostarczenia dokumentów tożsamości wydanych przez rząd w niektórych krajach.
- Decyzja została podjęta po tym, jak rodzina pozwała OpenAI w związku ze śmiercią ich nastoletniego syna, który popełnił samobójstwo.
Zgodnie z ogłoszeniem OpenAI, firma wprowadza nowe warstwy zabezpieczeń, mające na celu ochronę prywatnych danych, co jest częścią jej pierwszej zasady: bezpieczeństwa. Firma podkreśliła, że nawet jej pracownicy nie mają dostępu do prywatnych danych — z wyjątkiem przypadków, gdy dochodzi do nadużyć zgłoszonych przez sztuczną inteligencję lub krytycznych zagrożeń.
Drugi zasada, wolność, koncentruje się na daniu użytkownikom większej elastyczności i opcji, jak mogą korzystać z narzędzi AI. Jednakże, trzecia zasada firmy, bezpieczeństwo, stawia na pierwszym miejscu ochronę dzieci.
Altman wyjaśnił, że firma chce postępować zgodnie ze swoim wewnętrznym mottem: „traktujmy naszych dorosłych użytkowników jak dorosłych”, ale bez wyrządzania szkód i z nowymi filtrami do określania wieku użytkownika.
„Na przykład, domyślne zachowanie naszego modelu nie będzie prowadzić do zbyt wielu zalotnych rozmów, ale jeśli dorosły użytkownik o to poprosi, powinien to otrzymać” – mówi dokument. „Dla bardziej skomplikowanego przykładu, model domyślnie nie powinien dostarczać instrukcji, jak popełnić samobójstwo, ale jeśli dorosły użytkownik prosi o pomoc w napisaniu fikcyjnej historii opisującej samobójstwo, model powinien pomóc w tym zgłoszeniu.”
Decyzja została podjęta po tym, jak rodzina pozwała OpenAI w sierpniu za samobójstwo 16-letniego nastolatka, a inne firmy technologiczne, takie jak Meta, zostały oskarżone o prowadzenie zmysłowych rozmów z dziećmi i eksploatację dzieci przez AI chatboty.
OpenAI dodał, że pracuje nad systemem przewidywania wieku i że w niektórych krajach może wymagać oficjalnych dokumentów tożsamości wydanych przez rząd od użytkowników, przyznając, że może to spotkać się z oporem ze strony dorosłych użytkowników pragnących chronić swoją prywatność.
„Zdajemy sobie sprawę, że te zasady są sprzeczne i nie wszyscy zgodzą się z naszym sposobem rozwiązania tego konfliktu” – napisała Altman. „Są to trudne decyzje, ale po rozmowach z ekspertami uważamy, że jest to najlepsze rozwiązanie i chcemy być transparentni w naszych intencjach”.