Nowa Sztuczna Inteligencja Wykrywa Wątpliwe Czasopisma Naukowe

Image by National Cancer Institute, from Unsplash

Nowa Sztuczna Inteligencja Wykrywa Wątpliwe Czasopisma Naukowe

Przeczytasz w: 2 min

Naukowcy opracowali system wykrywania SI dla czasopism open-access o niejasnych praktykach, ujawniając zagrożenia dla integralności nauki i konieczność oceny przez człowieka

W pośpiechu? Oto najważniejsze fakty:

  • Sztuczna inteligencja przeszkolona na 12 000 renomowanych i 2 500 niskiej jakości czasopismach.
  • AI zidentyfikowała ponad 1 000 wcześniej nieznanych podejrzanych czasopism.
  • Obecny wskaźnik fałszywie pozytywnych wyników AI wynosi 24%, co wymaga nadzoru człowieka.

Czasopisma o otwartym dostępie umożliwiają bezpłatny dostęp do badań dla naukowców na całym świecie, zwiększając ich globalną ekspozycję. Niemniej jednak, model otwartego dostępu stworzył środowisko, w którym teraz rozprzestrzeniają się wątpliwe czasopisma. Często te media pobierają opłaty od autorów, obiecują szybką publikację, ale nie mają odpowiedniego procesu recenzji, co stawia pod znakiem zapytania integralność naukową.

Naukowcy niedawno opublikowali wyniki testów nowego narzędzia AI, które ma na celu rozwiązanie tego problemu. Szkolili AI, korzystając z ponad 12 000 wysokiej jakości czasopism, a także 2 500 publikacji o niskiej jakości lub wątpliwej, które zostały usunięte z Directory of Open Access Journals (DOAJ).

AI nauczyło się identyfikować czerwone flagi, analizując luki w składzie redakcyjnym, nieprofesjonalny design strony internetowej oraz minimalną aktywność cytowań.

Zidentyfikowano ponad 1000 wcześniej nieznanych podejrzanych czasopism z zestawu danych zawierającego 93 804 czasopisma dostępne na Unpaywall, które łącznie publikują setki tysięcy artykułów. Wiele z tych wątpliwych czasopism pochodzi z krajów rozwijających się.

„Nasze wyniki pokazują potencjał sztucznej inteligencji do przeprowadzania skalowalnych kontroli integralności, jednocześnie podkreślając potrzebę łączenia automatycznej triażu z ekspertyzą” – piszą badacze.

Badacze zwracają uwagę, że system nie jest doskonały. Obecnie generuje 24% fałszywych pozytywów, co oznacza, że co czwarty autentyczny czasopismo może być nieprawidłowo oznaczone. W dalszym ciągu potrzebni są eksperci do końcowej oceny.

System AI ocenia wiarygodność czasopism, analizując treść strony internetowej, elementy designu oraz dane bibliometryczne, w tym wzorce cytowań i afiliacje autorów. Wskaźnikami wątpliwych czasopism są wysokie wskaźniki autocytowania i niższe wartości indeksu h-autora, natomiast ustanowiona różnorodność instytucjonalna i szeroka sieć cytowań wskazują na wiarygodność.

Zespół badawczy spodziewa się, że przyszły rozwój poprawi zdolność systemu AI do wykrywania oszukańczych strategii wydawców. Łącząc narzędzia automatyczne z nadzorem ludzkim, społeczność naukowa może lepiej chronić integralność badań i kierować autorów w stronę wiarygodnych czasopism.

Spodobał Ci się ten artykuł? Oceń go!
Był okropny Nie podobał mi się Był w porządku Był całkiem dobry! Był super!

Cieszymy się, że doceniasz to, co robimy!

Cenimy Twoją opinię. Czy możemy liczyć na ocenę na Trustpilot? Zajmie Ci to tylko chwilę. Będziemy zobowiązani. Dziękujemy za wsparcie!

Oceń nas na Trustpilot
0 Na podstawie głosów 0 użytkowników
Tytuł
Komentarz
Dziękujemy za Twoją opinię