Eksperci ostrzegają, że sądy mogą przeoczyć halucynacje AI w dokumentach sądowych

Image by Sasun Bughdaryan, from Unsplash

Eksperci ostrzegają, że sądy mogą przeoczyć halucynacje AI w dokumentach sądowych

Przeczytasz w: 3 min

Sąd w Georgii uchylił wyrok rozwodowy po odkryciu fałszywych cytatów prawnych, prawdopodobnie generowanych przez sztuczną inteligencję, co budzi alarm w związku z rosnącym ryzykiem w systemach sprawiedliwości.

W pośpiechu? Oto najważniejsze fakty:

  • Sąd w Georgii anulował wyrok z powodu podejrzeń o fałszywe cytatów spraw sądowych wygenerowanych przez AI.
  • Sędzia Jeff Watkins wskazał „generatywne AI” jako prawdopodobne źródło fałszywych spraw.
  • Eksperci twierdzą, że sądy prawdopodobnie przeoczą więcej błędów AI w dokumentach sądowych.

Sprawa tocząca się przed sądem w Georgii pokazuje, jak sztuczna inteligencja (AI) może niepostrzeżenie podważać zaufanie społeczeństwa do amerykańskich instytucji prawnych. ArsTechnica informuje, że sędzia Jeff Watkins z Sądu Apelacyjnego w Georgii unieważnił wyrok rozwodowy, ponieważ znalazł w dokumencie dwa zmyślone przypadki, które prawdopodobnie były tworem AI.

Zamówienie zostało sporządzone przez prawniczkę, Dianę Lynch, co jak podaje ArsTechnica, jest obecnie powszechną praktyką w przeciążonych sądach. Ta rosnąca tendencja do wykorzystania AI w składaniu wniosków sądowych sprawia, że skróty są szczególnie ryzykowne.

Lynch została ukarana grzywną w wysokości 2500 dolarów, a sędzia Watkins napisał, „nieprawidłowości w tych złożonych dokumentach sugerują, że zostały one sporządzone z wykorzystaniem generatywnej AI”, dodając, że halucynacje AI mogą „marnować czas i pieniądze”, szkodzić reputacji systemu i pozwalać „stronie procesowej […] na ignorowanie orzeczenia sądowego, nieszczerze twierdząc, że ma wątpliwości co do jego autentyczności”, jak podaje ArsTechnica.

Eksperci ostrzegają, że to nie jest odosobniony przypadek. John Browning, były sędzia apelacyjny z Teksasu, twierdzi, że jest „przerażająco prawdopodobne”, że więcej sądów pomyli się, polegając na fałszywych cytatach generowanych przez sztuczną inteligencję, zwłaszcza w przeciążonych systemach. „Potrafię wyobrazić sobie taką sytuację w wielu różnych kontekstach” – powiedział Ars Technica.

Inne niedawne przykłady potwierdzają te obawy. Koloradzki system prawny nałożył karę w wysokości 3 000 dolarów na dwóch adwokatów reprezentujących CEO MyPillow, Mike’a Lindella, po tym, jak przedstawili oni dokumenty prawne wygenerowane przez sztuczną inteligencję, zawierające więcej niż dwadzieścia poważnych błędów. Sędzia Nina Y. Wang napisała, że „ten Sąd nie czerpie satysfakcji z nałożenia sankcji na adwokatów”, ale podkreśliła, że prawnicy są odpowiedzialni za weryfikację wniosków.

W Kalifornii, kolejny sędzia nałożył karę w wysokości 31 000 dolarów na dwie kancelarie prawne, które złożyły podania zawierające fałszywe cytaty. „To przerażające,” napisał sędzia Michael Wilner, który prawie dał się przekonać fałszywym orzeczeniom. Chyba że sądy dostosują się szybko, halucynacje AI mogą stać się nawracającym koszmarem w amerykańskim systemie sprawiedliwości.

Ten trend jest szczególnie niepokojący, biorąc pod uwagę, jak droga jest już reprezentacja prawna. Ludzie powszechnie uważają, że opłaty prawne gwarantują zarówno dokładność, jak i profesjonalizm ze strony swoich prawników. Jednak, gdy adwokaci korzystają z AI jako skrótu, klienci mogą ostatecznie zapłacić rachunek za błędy popełnione przez maszynę.

Te halucynacje nie tylko zagrażają wynikom prawnym, ale mogą również pogłębiać nierówności, utrudniając dostęp do sprawiedliwości tym, którzy najmniej mogą sobie pozwolić na jej obronę.

Spodobał Ci się ten artykuł? Oceń go!
Był okropny Nie podobał mi się Był w porządku Był całkiem dobry! Był super!

Cieszymy się, że doceniasz to, co robimy!

Cenimy Twoją opinię. Czy możemy liczyć na ocenę na Trustpilot? Zajmie Ci to tylko chwilę. Będziemy zobowiązani. Dziękujemy za wsparcie!

Oceń nas na Trustpilot
0 Na podstawie głosów 0 użytkowników
Tytuł
Komentarz
Dziękujemy za Twoją opinię