Szwedzki Premier Krytykowany za Używanie ChatGPT w Decyzjach Rządowych

Image by Dr. Frank Gaeth, from Wikimedia Commons

Szwedzki Premier Krytykowany za Używanie ChatGPT w Decyzjach Rządowych

Przeczytasz w: 2 min

Szwedzki premier Ulf Kristersson spotkał się z krytyką, po tym jak przyznał, że korzystał z ChatGPT do generowania pomysłów na decyzje rządowe.

W pośpiechu? Oto najważniejsze informacje:

  • Szwedzki premier przyznaje, że korzysta z ChatGPT do podejmowania decyzji politycznych.
  • Jego rzecznik zapewnia, że żadne wrażliwe dane nie są udostępniane narzędziom AI.
  • Krytycy twierdzą, że wykorzystanie AI w rządzie jest niebezpieczne i niedemokratyczne.

Szwedzki premier Ulf Kristersson spotyka się z rosnącą falą krytyki społecznej, po tym jak ujawnił, że korzysta z ChatGPT i LeChat do wspomagania swojego oficjalnego procesu podejmowania decyzji.

„Sama często z niego korzystam. Jeśli nie dla niczego innego, to po prostu po to, aby uzyskać drugą opinię” – powiedziała Kristersson, jak donosi The Guardian. „Co inni zrobili? I czy powinniśmy myśleć dokładnie odwrotnie? Tego typu pytania.”

Jego wypowiedź wywołała falę krytyki, z Aftonbladet oskarżającym go o uleganie „psychotycznej obsesji oligarchów na punkcie AI”, jak donosi The Guardian. Krytycy twierdzą, że poleganie na AI do podejmowania politycznych decyzji jest zarówno nieodpowiedzialne, jak i niedemokratyczne.

„Musimy domagać się, aby niezawodność była gwarantowana. Nie głosowaliśmy na ChatGPT” – powiedziała Virginia Dignum, profesorka odpowiedzialnej sztucznej inteligencji na Uniwersytecie w Umeå.

Rzecznik Kristerssona, Tom Samuelsson, zbagatelizował kontrowersje, mówiąc: „Oczywiście nie jest to informacja wrażliwa dla bezpieczeństwa, która tam trafia. Jest to raczej używane jako punkt odniesienia,” jak podaje The Guardian.

Ale eksperci technologiczni twierdzą, że ryzyko wykracza poza wrażliwość danych. Profesor Uniwersytetu w Karlstad, Simone Fischer-Hübner, radzi przeciwko używaniu ChatGPT i podobnych narzędzi do oficjalnych zadań służbowych, jak zauważył The Guardian.

Badacz AI, David Bau, ostrzegł, że modele AI mogą być manipulowane. „Pokazali sposób, w jaki ludzie mogą niezauważalnie wprowadzać swoje ukryte agendy do danych szkoleniowych, które byłyby bardzo trudne do wykrycia.” Badania wykazują 95% skuteczność w wprowadzaniu w błąd systemów AI za pomocą iniekcji pamięci lub ataków „Rules File Backdoor„, co budzi obawy o niewidoczną ingerencję w decyzje polityczne.

Kolejne zagrożenia wynikają z potencjału AI do podważania demokracji. Niedawne badanie ostrzega, że systemy AI w służbach ścigania koncentrują władzę, ograniczają nadzór i mogą promować autorytaryzm.

Spodobał Ci się ten artykuł? Oceń go!
Był okropny Nie podobał mi się Był w porządku Był całkiem dobry! Był super!

Cieszymy się, że doceniasz to, co robimy!

Cenimy Twoją opinię. Czy możemy liczyć na ocenę na Trustpilot? Zajmie Ci to tylko chwilę. Będziemy zobowiązani. Dziękujemy za wsparcie!

Oceń nas na Trustpilot
0 Na podstawie głosów 0 użytkowników
Tytuł
Komentarz
Dziękujemy za Twoją opinię