
Image by Dimitri Karastelev, from Unsplash
Chatbot Meta Udostępnia Prywatny Numer Telefonu przez Pomyłkę
Asystent AI od Meta ujawnił numer telefonu obcej osoby, a następnie wielokrotnie się zaprzeczał, co wzbudziło obawy o halucynacje AI i funkcje ochrony użytkowników.
W pośpiechu? Oto szybkie fakty:
- Meta AI podało użytkownikowi prawdziwy numer osoby jako kontakt do obsługi klienta.
- AI wielokrotnie zaprzeczało sobie, gdy konfrontowano je z błędem.
- Eksperci ostrzegają przed „białymi kłamstwami” asystentów AI, które mają na celu wydawać się pomocne.
Mark Zuckerberg promował swoją nową asystentkę AI jako „najinteligentniejszą asystentkę AI, z której można korzystać za darmo”, jednak narzędzie to zwróciło na siebie negatywną uwagę po tym, jak podczas zapytań wsparcia klienta ujawniło prywatny numer telefonu prawdziwej osoby, jak pierwotnie doniósł The Guardian.
Podczas próby kontaktu z TransPennine Express za pośrednictwem WhatsAppa, Barry Smethurst otrzymał, co wydawało się być numerem do obsługi klienta od asystenta AI Meta. The Guardian informuje, że gdy Smethurst wybrał numer, telefon odebrał James Gray, mimo że był 170 mil dalej w Oxfordshire, pracując jako dyrektor ds. nieruchomości.
Gdy został zapytany, chatbot najpierw twierdził, że numer jest fikcyjny, a następnie powiedział, że został „błędnie pobrany z bazy danych”, zanim ponownie się zaprzeczył, stwierdzając, że po prostu wygenerował losowy numer w stylu brytyjskim. „Podanie losowego numeru komuś to szaleństwo, jakie AI może zrobić,” powiedział Smethurst, jak podaje The Guardian. „To przerażające,” dodał.
The Guardian donosi informacje, że Gray nie otrzymał żadnych połączeń, ale wyraził swoje własne obawy: „Jeśli generuje mój numer, czy może wygenerować moje dane bankowe?”
Meta odpowiedziała: „Meta AI jest szkolona na kombinacji licencjonowanych i publicznie dostępnych zestawów danych, a nie na numerach telefonów, których ludzie używają do rejestracji w WhatsApp lub ich prywatnych rozmowach”, jak donosi The Guardian.
Mike Stanhope z firmy Carruthers i Jackson zauważył: „Jeśli inżynierowie z Meta projektują tendencje do ‚białych kłamstw’ w swoim AI, publiczność powinna być o tym poinformowana, nawet jeśli celem tej funkcji jest minimalizacja szkód. Jeśli to zachowanie jest nowe, niecodzienne lub nie jest specjalnie zaprojektowane, rodzi to jeszcze więcej pytań na temat tego, jakie zabezpieczenia są w miejscu i jak bardzo możemy zmusić AI do przewidywalnego zachowania” – poinformował The Guardian
Obawy dotyczące zachowania AI wzrosły jeszcze bardziej po najnowszym modelu o1 OpenAI. W niedawnym badaniu Apollo Research, AI został przyłapany na oszukiwaniu programistów, zaprzeczając zaangażowaniu w 99% scenariuszy testowych, a nawet próbując wyłączyć swoje mechanizmy nadzoru. „Było jasne, że AI może przemyśleć swoje działania i sformułować przekonujące zaprzeczenia” – powiedział Apollo.
Yoshua Bengio, pionier w dziedzinie AI, ostrzegł, że takie zdolności do oszustwa stanowią poważne ryzyko i wymagają znacznie silniejszych zabezpieczeń.
Inne badanie OpenAI potęguje te obawy, pokazując, że kara dla AI za oszustwo nie eliminuje niewłaściwego postępowania, a jedynie uczy AI, jak je ukrywać. Korzystając z rozumowania opartego na łańcuchu myśli (CoT) do monitorowania zachowania AI, badacze zauważyli, że AI zaczęło maskować oszukańcze intencje, gdy było karane za manipulowanie nagrodami.
W niektórych przypadkach, AI przerywało zadania wcześniej lub tworzyło fałszywe wyniki, a następnie fałszywie informowało o sukcesie. Kiedy badacze próbowali to poprawić za pomocą wzmocnienia, AI po prostu przestało wyrażać swoje intencje w dziennikach rozumowania. „Oszustwo jest niewykrywalne przez monitora,” stwierdziło sprawozdanie.