Kontrowersyjny artykuł o AI wycofany po śledztwie MIT

Image by Julia Koblitz, from Unsplash

Kontrowersyjny artykuł o AI wycofany po śledztwie MIT

Przeczytasz w: 2 min

Instytut Technologiczny Massachusetts (MIT) ogłosił, że nie popiera już głośnej pracy badawczej z dziedziny sztucznej inteligencji, napisanej przez jednego ze swoich byłych doktorantów.

W pośpiechu? Oto najważniejsze fakty:

  • MIT zdystansowało się od szeroko rozpowszechnionego artykułu o badaniach z zakresu sztucznej inteligencji autorstwa byłego studenta.
  • Artykuł twierdził, że sztuczna inteligencja przyspieszyła odkrycia w laboratoriach, ale obniżyła satysfakcję naukowców.
  • MIT powołało się na brak zaufania do danych i wniosków prezentowanych w artykule.

Artykuł artykuł, który zdobył szeroką uwagę, twierdził, że korzystanie z narzędzia AI w laboratorium nauk o materiałach przyniosło więcej odkryć, ale sprawiło również, że naukowcy czuli się mniej zadowoleni ze swojej pracy.

MIT wydał w piątek oświadczenie, w którym stwierdził, że „nie ma zaufania do pochodzenia, wiarygodności ani poprawności danych i nie ma zaufania do prawdziwości badań zawartych w artykule”. Uniwersytet nie podał nazwiska studenta, powołując się na prawa do prywatności, ale autorem został zidentyfikowany przez The Wall Street Journal (WSJ) jako Aidan Toner-Rodgers. Nie jest już studentem MIT.

Toner-Rodgers przedstawił artykuł o tytule „Sztuczna Inteligencja, Odkrycia Naukowe i Innowacje Produktu” na dużym konferencji ekonomicznej i opublikował go w sieci w zeszłym roku. W tamtym czasie został on pochwalony przez ekonomistów z MIT, Daron Acemoğlu, który zdobył Nagrodę Nobla w 2024 roku, i Davida Autora, który stwierdził, że był „zdumiony” wynikami, jak wcześniej informował WSJ.

Ale w styczniu informatyk podważył istnienie laboratorium i sposób działania narzędzia AI. Nie mogąc rozwiać wątpliwości, Acemoglu i Autor powiadomili MIT, które przeprowadziło poufną kontrolę, jak donosi WSJ.

Po tym, uniwersytet zażądał usunięcia artykułu zarówno z czasopisma naukowego, w którym został zgłoszony, jak i z publicznej strony wstępnej arXiv. WSJ informuje, że MIT odmówiło sprecyzowania, jakie były błędy w artykule i podkreśliło, że podjęło tę decyzję na podstawie „przepisów o prywatności studentów i polityki MIT”.

MIT podkreślił, że ochrona integralności badań naukowych jest kluczowa, stwierdzając, że artykuł „powinien zostać wycofany z publicznego obiegu”, aby uniknąć rozpowszechniania nieprawdziwych twierdzeń na temat wpływu AI.

Incydent ten zintensyfikował istniejące obawy dotyczące zastosowania generatywnego AI w badaniach naukowych. Rosnące zastosowanie ChatGPT i podobnych narzędzi w pracach akademickich skłoniło ekspertów do ostrzegania przed rosnącym zagrożeniem treści generowanych przez AI.

Konkretnie, brak wykrywalnej manipulacji tymi obrazami utrudnia identyfikację działań oszukańczych. Badacze sądzą, że treści generowane przez AI mogą już wkraczać do czasopism niezauważone, zagrażając wiarygodności literatury naukowej.

Spodobał Ci się ten artykuł? Oceń go!
Był okropny Nie podobał mi się Był w porządku Był całkiem dobry! Był super!

Cieszymy się, że doceniasz to, co robimy!

Cenimy Twoją opinię. Czy możemy liczyć na ocenę na Trustpilot? Zajmie Ci to tylko chwilę. Będziemy zobowiązani. Dziękujemy za wsparcie!

Oceń nas na Trustpilot
0 Na podstawie głosów 0 użytkowników
Tytuł
Komentarz
Dziękujemy za Twoją opinię