Studium ostrzega, że AI może zaostrzyć polaryzację w mediach społecznościowych

Studium ostrzega, że AI może zaostrzyć polaryzację w mediach społecznościowych

Przeczytasz w: 3 min

Sztuczna inteligencja może nasilić polaryzację na mediach społecznościowych, ostrzegają badacze i studenci z Concordia, budząc obawy dotyczące wolności słowa i dezinformacji.

W pośpiechu? Oto szybkie fakty:

  • Algorytmy AI mogą rozsiewać podziały, korzystając tylko z liczników obserwujących i najnowszych postów.
  • Boty korzystające z uczenia się przez wzmacnianie szybko dostosowują się, aby wykorzystać podatności mediów społecznościowych.
  • Eksperci ostrzegają, że platformy ryzykują albo cenzurę, albo niekontrolowaną manipulację.

Chociaż polaryzacja w mediach społecznościowych nie jest niczym nowym, badacze i studenccy aktywiści z Concordia University ostrzegają, że sztuczna inteligencja mogłaby znacznie pogorszyć ten problem.

„Zamiast pokazywania filmów z tego, co się dzieje, czy treści od dziennikarzy, którzy o tym informują, zamiast tego widzimy przesadnie zdramatyzowane sztukę AI dotyczącą rzeczy, o które powinniśmy się troszczyć politycznie […] Naprawdę to oddziela ludzi i usuwa odpowiedzialność” – powiedziała Danna Ballantyne, koordynatorka ds. stosunków zewnętrznych i mobilizacji dla Związku Studentów Concordia, jak podaje The Link.

Jej obawy odzwierciedlają nowe badania z Concordia, gdzie profesor Rastko R. Selmic i doktorant Mohamed N. Zareer pokazali, jak boty oparte na uczeniu wzmacniającym mogą podsycać podziały w sieci. „Naszym celem było zrozumienie, jak duży wpływ może mieć sztuczna inteligencja na polaryzację i sieci społecznościowe, a następnie symulować to […] aby zmierzyć, jak może powstać ta polaryzacja i niezgoda.” – powiedział Zareer, jak podaje The Link.

Wyniki badań sugerują, że algorytmy nie potrzebują prywatnych danych, aby siać podziały, gdzie podstawowe sygnały, takie jak liczba obserwujących i ostatnie posty, są wystarczające. „To niepokojące, ponieważ [chociaż] to nie jest prosty robot, to wciąż algorytm, który możesz stworzyć na swoim komputerze […] A kiedy masz wystarczającą moc obliczeniową, możesz wpływać na coraz więcej sieci” – wyjaśnił Zareer w rozmowie z The Link.

To odzwierciedla szersze badania pokazujące, jak uczenie ze wzmocnieniem może być wykorzystane do rozdzielania społeczności. Badanie przeprowadzone przez Concordia wykorzystało Double-Deep Q-learning i pokazało, że wrogie agenty AI mogą „elastycznie dostosowywać się do zmian w sieci, co pozwala im skutecznie wykorzystywać strukturalne słabości i zwiększać podziały między użytkownikami”, jak zauważono w badaniu.

Rzeczywiście, Double-Deep Q-learning to technika AI, gdzie bot uczy się optymalnych działań poprzez próby i błędy. Wykorzystuje głębokie sieci neuronowe do radzenia sobie z złożonymi problemami i dwie estymacje wartości, aby uniknąć przeceniania nagród. W mediach społecznościowych, może strategicznie rozpowszechniać treść, aby zwiększyć polaryzację przy minimalnych danych.

Zareer ostrzegał, że decydenci stoją przed trudnym dylematem. „Cienka jest granica między monitorowaniem a cenzurą i próbą kontrolowania sieci,” powiedział do The Link. Zbyt mały nadzór pozwala botom manipulować rozmowami, podczas gdy zbyt duży może stwarzać ryzyko tłumienia wolności słowa.

Tymczasem studenci tacy jak Ballantyne obawiają się, że AI zaciera doświadczenia życiowe. „AI to całkowicie zanegowuje”, powiedziała do The Link.

Spodobał Ci się ten artykuł? Oceń go!
Był okropny Nie podobał mi się Był w porządku Był całkiem dobry! Był super!

Cieszymy się, że doceniasz to, co robimy!

Cenimy Twoją opinię. Czy możemy liczyć na ocenę na Trustpilot? Zajmie Ci to tylko chwilę. Będziemy zobowiązani. Dziękujemy za wsparcie!

Oceń nas na Trustpilot
0 Na podstawie głosów 0 użytkowników
Tytuł
Komentarz
Dziękujemy za Twoją opinię