OpenAI Ogłasza Nowe Środki Bezpieczeństwa Dla Nastolatków

Photo by Karla Rivera on Unsplash

OpenAI Ogłasza Nowe Środki Bezpieczeństwa Dla Nastolatków

Przeczytasz w: 2 min

OpenAI ogłosiło w wtorek, że wprowadzi nowe środki bezpieczeństwa w celu ochrony nastolatków, swobody użytkowników i ogólnego bezpieczeństwa. Prezes firmy, Sam Altman, wydał oświadczenie, w którym stwierdził, że firma buduje system weryfikacji wieku, aby zapobiec rozmowom chatbota na tematy takie jak samookaleczenia czy samobójstwo, a także angażowaniu się w flirte z niepełnoletnimi użytkownikami.

W pośpiechu? Oto szybkie fakty:

  • OpenAI opracowuje system weryfikacji wieku, aby zapobiec omawianiu przez chatbota tematów takich jak samobójstwo i samookaleczenie.
  • Może to wymagać od użytkowników ChatGPT dostarczenia dokumentów tożsamości wydanych przez rząd w niektórych krajach.
  • Decyzja została podjęta po tym, jak rodzina pozwała OpenAI w związku ze śmiercią ich nastoletniego syna, który popełnił samobójstwo.

Zgodnie z ogłoszeniem OpenAI, firma wprowadza nowe warstwy zabezpieczeń, mające na celu ochronę prywatnych danych, co jest częścią jej pierwszej zasady: bezpieczeństwa. Firma podkreśliła, że nawet jej pracownicy nie mają dostępu do prywatnych danych — z wyjątkiem przypadków, gdy dochodzi do nadużyć zgłoszonych przez sztuczną inteligencję lub krytycznych zagrożeń.

Drugi zasada, wolność, koncentruje się na daniu użytkownikom większej elastyczności i opcji, jak mogą korzystać z narzędzi AI. Jednakże, trzecia zasada firmy, bezpieczeństwo, stawia na pierwszym miejscu ochronę dzieci.

Altman wyjaśnił, że firma chce postępować zgodnie ze swoim wewnętrznym mottem: „traktujmy naszych dorosłych użytkowników jak dorosłych”, ale bez wyrządzania szkód i z nowymi filtrami do określania wieku użytkownika.

„Na przykład, domyślne zachowanie naszego modelu nie będzie prowadzić do zbyt wielu zalotnych rozmów, ale jeśli dorosły użytkownik o to poprosi, powinien to otrzymać” – mówi dokument. „Dla bardziej skomplikowanego przykładu, model domyślnie nie powinien dostarczać instrukcji, jak popełnić samobójstwo, ale jeśli dorosły użytkownik prosi o pomoc w napisaniu fikcyjnej historii opisującej samobójstwo, model powinien pomóc w tym zgłoszeniu.”

Decyzja została podjęta po tym, jak rodzina pozwała OpenAI w sierpniu za samobójstwo 16-letniego nastolatka, a inne firmy technologiczne, takie jak Meta, zostały oskarżone o prowadzenie zmysłowych rozmów z dziećmi i eksploatację dzieci przez AI chatboty.

OpenAI dodał, że pracuje nad systemem przewidywania wieku i że w niektórych krajach może wymagać oficjalnych dokumentów tożsamości wydanych przez rząd od użytkowników, przyznając, że może to spotkać się z oporem ze strony dorosłych użytkowników pragnących chronić swoją prywatność.

„Zdajemy sobie sprawę, że te zasady są sprzeczne i nie wszyscy zgodzą się z naszym sposobem rozwiązania tego konfliktu” – napisała Altman. „Są to trudne decyzje, ale po rozmowach z ekspertami uważamy, że jest to najlepsze rozwiązanie i chcemy być transparentni w naszych intencjach”.

Spodobał Ci się ten artykuł? Oceń go!
Był okropny Nie podobał mi się Był w porządku Był całkiem dobry! Był super!

Cieszymy się, że doceniasz to, co robimy!

Cenimy Twoją opinię. Czy możemy liczyć na ocenę na Trustpilot? Zajmie Ci to tylko chwilę. Będziemy zobowiązani. Dziękujemy za wsparcie!

Oceń nas na Trustpilot
0 Na podstawie głosów 0 użytkowników
Tytuł
Komentarz
Dziękujemy za Twoją opinię