Mattel i OpenAI Spotykają się z Krytyką za Zabawki AI

Image By Sean Bernstein, from Unsplash

Mattel i OpenAI Spotykają się z Krytyką za Zabawki AI

Przeczytasz w: 3 min

Rzecznicy praw konsumentów ostrzegają przed ryzykiem związanym z nowym partnerstwem między Mattel a OpenAI w celu stworzenia zabawek zasilanych sztuczną inteligencją.

Spieszysz się? Oto najważniejsze fakty:

  • Mattel i OpenAI planują wprowadzić na rynek zabawki zasilane sztuczną inteligencją do 2026 roku.
  • Rzecznicy konsumentów ostrzegają przed potencjalnym zagrożeniem dla rozwoju dzieci.
  • Zabawki mogą przetwarzać dane głosowe dzieci i analizować ich wzorce zachowań.

Współprezes Public Citizen, Robert Weissman, żąda od Mattel większej przejrzystości oraz ujawnienia szczegółów na temat ich nadchodzącego produktu.

„Nadanie zabawkom ludzko brzmiących głosów, które są w stanie prowadzić rozmowy na wzór ludzki, niesie ryzyko wyrządzenia realnej szkody dzieciom” – powiedział Weissman, jak pierwotnie donosił Ars Technica.

Obawia się, że takie zabawki mogą zaszkodzić rozwojowi społecznemu, zakłócić prawdziwe przyjaźnie i spowodować długotrwałe szkody psychologiczne. „Mattel nie powinno wykorzystywać swojego zaufania wśród rodziców do przeprowadzania nieodpowiedzialnego eksperymentu społecznego na naszych dzieciach, sprzedając zabawki wykorzystujące AI” – dodał Weissman.

Pierwszy produkt wynikający z partnerstwa nie będzie skierowany do dzieci poniżej 13 roku życia, zgodnie z anonimowym źródłem Axios, co sugeruje Ars Technica, prawdopodobnie ze względu na ograniczenia wiekowe OpenAI. Krytycy argumentują, że ograniczenia wiekowe nie zapewniają wystarczającej ochrony.

OpenAI odmówiło komentarza, podczas gdy Mattel jeszcze nie odpowiedział na zapytanie Ars Technica. Pierwszy produkt wynikający z partnerstwa zostanie ogłoszony w tym roku i wydany w 2026, zgodnie z komunikatem prasowym Mattel, który stwierdza, że współpraca będzie wspierać produkty i doświadczenia oparte na AI, bazujące na markach Mattel.

Jednak krytycy, takie jak menedżerka technologiczna Varundeep Kaur i ekspert ds. bezpieczeństwa cyfrowego Adam Dodge, ostrzegają, że zabawki wykorzystujące sztuczną inteligencję mogą narazić dzieci na naruszenia prywatności, stronnicze treści lub mylące odpowiedzi chatbotów. Kaur zwróciła również uwagę na zagrożenie związane z halucynacjami AI, mówiąc, że te zabawki mogą dawać „nieodpowiednie lub dziwaczne odpowiedzi”, które są niepokojące dla dzieci.

Ars Technica informuje, że krytycy tacy jak Varundeep Kaur i Adam Dodge, którzy są odpowiednio menedżerką technologiczną i ekspertem ds. bezpieczeństwa cyfrowego, wyrażają obawy, że zabawki z AI mogą prowadzić do naruszeń prywatności, stronniczego dostarczania treści i mylących odpowiedzi chatbotów.

Kaur zwróciła uwagę na ryzyko halucynacji AI, które mogą sprawić, że zabawki generują niepokojące lub dziwaczne reakcje, które mogą niepokoić dzieci. Dodał również, że dalsze ryzyko może być związane z rejestrowaniem przez zabawki „danych głosowych, wzorców zachowań i preferencji osobistych”.

Ars Technica informuje, że Dodge dodał: „nieprzewidywalne, służalcze i uzależniające„, i ostrzegł przed najgorszymi scenariuszami, takimi jak zabawki promujące samookaleczenie. Obaj eksperci apelowali o surowe kontrole rodzicielskie, przejrzystość i niezależne audyty przed jakimkolwiek uruchomieniem.

Rzeczywiście, naukowcy z MIT wydali osobne, ale powiązane ostrzeżenie na temat uzależniającej natury towarzyszy AI.

Mattel spotkał się z podobną krytyką wcześniej. W 2015 roku firma wypuściła „Cześć Barbie”, lalkę podłączoną do Wi-Fi, która słuchała dzieci i odpowiadała za pomocą chmury AI, jak donosi Forbes.

Krytycy w tamtym czasie, w tym ekspert ds. cyberbezpieczeństwa Joseph Steinberg, ostrzegali, że zabawka stanowi ogromne zagrożenie dla prywatności. Hello Barbie nagrywała i przesyłała rozmowy dzieci na serwer obsługiwany przez stronę trzecią, ToyTalk, który dzielił te dane z dostawcami w celu ulepszenia systemów AI.

Steinberg zwrócił uwagę, że dzieci często zwierzają się ze swoich najgłębszych myśli swoim lalkom – czasem omawiając strachy, problemy rodzinne czy szkolne. „Czy chciałbyś, aby nagrania ich intymnych rozmów z dzieciństwa pozostawały w rękach nieznanych osób?” – zapytał, jak donosi Forbes.

Eksperci ds. prywatności argumentują, że jeżeli firmy nie zaoferują jasnych ostrzeżeń na opakowaniach, napisanych prostym językiem, wielu rodziców nieświadomie narazi prywatne życie swoich dzieci na korporacje pod pretekstem wygody i rozrywki.

Spodobał Ci się ten artykuł? Oceń go!
Był okropny Nie podobał mi się Był w porządku Był całkiem dobry! Był super!

Cieszymy się, że doceniasz to, co robimy!

Cenimy Twoją opinię. Czy możemy liczyć na ocenę na Trustpilot? Zajmie Ci to tylko chwilę. Będziemy zobowiązani. Dziękujemy za wsparcie!

Oceń nas na Trustpilot
0 Na podstawie głosów 0 użytkowników
Tytuł
Komentarz
Dziękujemy za Twoją opinię