Image by Ryunosuke Kikuno, from Unsplash
Badania Pokazują, że ChatGPT i Inne Narzędzia AI Cytują Wycofane Badania
Niektóre chatboty wykorzystujące sztuczną inteligencję udzielają odpowiedzi oparte na błędnych badaniach pochodzących z wycofanych publikacji naukowych, jak wykazują najnowsze badania.
Spieszysz się? Oto najważniejsze fakty:
- Czasami AI chatboty cytują wycofane artykuły naukowe bez ostrzegania użytkowników.
- ChatGPT GPT-4o odwołał się do wycofanych artykułów pięciokrotnie, ostrzegając tylko trzy razy.
- Eksperci ostrzegają, że dane o wycofaniu są niespójne i często trudne do śledzenia dla AI.
Wyniki badań, które potwierdził MIT Technology Review, budzą wątpliwości co do niezawodności AI, jeśli chodzi o odpowiadanie na pytania naukowe skierowane do badaczy, studentów i ogółu społeczeństwa.
Chatboty AI są już znane z tego, że czasami fabrykują odniesienia. Jednak eksperci ostrzegają, że nawet gdy źródła są prawdziwe, problemy pojawiają się, jeśli same artykuły zostały wycofane z naukowego obiegu.
„Chatbot ‚używa prawdziwego artykułu, prawdziwego materiału, aby Ci coś powiedzieć'” – mówi Weikuan Gu, badacz medyczny na University of Tennessee, jak donosi MIT. „Ale, jak mówi, jeśli ludzie patrzą tylko na treść odpowiedzi i nie klikają na artykuł, żeby zobaczyć, że został wycofany, to naprawdę jest problem” – dodał.
MIT informuje, że zespół Gu przetestował ChatGPT działający na modelu GPT-4o OpenAI, analizując 21 wycofanych artykułów z zakresu obrazowania medycznego. Chatbot odwoływał się do wycofanych źródeł pięć razy, ale tylko w trzech przypadkach ostrzegał użytkowników o tym problemie. Inne badanie wykazało podobne problemy z GPT-4o mini, które w ogóle nie informowało o wycofaniu artykułów.
Problem dotyczy nie tylko ChatGPT. MIT oceniło narzędzia AI skierowane na badania, testując Elicit, Ai2 ScholarQA, Perplexity i Consensus. Każde z nich cytowało badania, które zostały wycofane, nie ostrzegając o tym. Badacze stwierdzili, że takie sytuacje miały miejsce wielokrotnie, w dziesiątkach przypadków. Niektóre firmy deklarują, że teraz poprawiają wykrywanie takich sytuacji.
„Do niedawna nie mieliśmy dobrych danych dotyczących wycofań w naszej wyszukiwarce” – powiedział Christian Salem, współzałożyciel Consensus, który od tego czasu dodał nowe źródła, aby zminimalizować błędy.
Eksperci twierdzą, że dane dotyczące wycofań są niejednolite i niespójne. „Tam, gdzie coś jest wycofywane, może to być oznaczone na bardzo różne sposoby” – mówi Caitlin Bakker z University of Regina.
Badacze ostrzegają użytkowników, aby zachowali ostrożność. „Jesteśmy na bardzo, bardzo wczesnym etapie i zasadniczo musisz być sceptyczny” – mówi Aaron Tay z Singapore Management University.