Sąd w UK ostrzega prawników: fałszywe cytowania AI mogą prowadzić do oskarżeń karnych

Image by Sue Winston, from Unsplash

Sąd w UK ostrzega prawników: fałszywe cytowania AI mogą prowadzić do oskarżeń karnych

Przeczytasz w: 3 min

Sąd Najwyższy Anglii i Walii wydał surowe ostrzeżenie dla prawników, wskazując, że muszą powstrzymać się od korzystania z fałszywych informacji prawnych generowanych przez narzędzia sztucznej inteligencji, takie jak ChatGPT, ponieważ będą musieli stawić czoła konsekwencjom karnym.

W pośpiechu? Oto najważniejsze informacje:

  • Brytyjski sąd ostrzega prawników przed karnymi zarzutami za fałszywe cytowania wygenerowane przez sztuczną inteligencję.
  • Odniesienia do spraw stworzone przez AI wykorzystane w pozwie o 89 milionów funtów, nie miały podstaw faktycznych.
  • Prawnik sam zgłosił się po złożeniu 18 fałszywych spraw zmieszanych z prawdziwymi cytowaniami.

Ostrzeżenie stało się konieczne po dwóch niedawnych postępowaniach sądowych. Mężczyzna, który wytoczył proces o 89 milionów funtów przeciwko dwóm bankom, stworzył sztuczną inteligencję generującą prawnicze cytaty, jak donosi The New York Times.

Spośród 45 przedstawionych odniesień do przypadków, osiemnaście całkowicie nie miało żadnej podstawy faktycznej. The Guardian donosił, że prawnik podał prawdziwe cytaty, jednak zarówno prawdziwe, jak i fałszywe odniesienia nie potrafiły ustanowić prawidłowych związków z przypadkiem.

Adwokat przyjął odpowiedzialność za swoje zaniedbania w cytatach przed zgłoszeniem się do organu regulacyjnego.

Haringey Law Centre wniósł pozew przeciwko radzie gminy Londyn w związku z ich sporem mieszkaniowym. Prawniczka przedstawiła sądowi pięć całkowicie sfabrykowanych poprzednich spraw. Sąd uznał, że jest odpowiedzialna za generowanie niepotrzebnych kosztów prawnych, zgodnie z informacjami podanymi przez The Guardian.

Chociaż zaprzeczyła bezpośredniemu korzystaniu z AI, przyznała, że mogła „przeprowadzić wyszukiwania w Google lub Safari” i nieświadomie polegać na streszczeniach generowanych przez AI, jak podaje The Times.

Sędzia Victoria Sharp, prezes Wydziału Królewskiego, powiedziała: „Niewłaściwe użycie sztucznej inteligencji ma poważne konsekwencje dla administracji sprawiedliwości i publicznego zaufania do systemu sprawiedliwości”, jak podaje The Times. Ostrzegła, że prawnicy ryzykują oskarżenia kryminalne lub zakaz praktykowania prawa.

Wyrok dodatkowo stwierdza, że narzędzia AI „mogą generować zrozumiałe i wiarygodne odpowiedzi… [ale] mogą również wyrażać pewne twierdzenia, które są po prostu nieprawdziwe”, jak podaje The Times. Ian Jeffery z Law Society poparł wyrok, mówiąc, że „ujawnia on niebezpieczeństwa związane z korzystaniem z AI w pracy prawniczej”, jak podaje The Guardian.

Sąd wezwał liderów prawniczych do pilnego przeszkolenia personelu w zakresie odpowiedzialnego korzystania z AI, które jest znane z „halucynowania” informacji.

Praktyka niekontrolowanego korzystania z AI już spowodowała podobne problemy w całych Stanach Zjednoczonych, Australii i Europie, budząc szerokie obawy wśród prawników.

Amerykańska sędzia nałożyła na dwie kancelarie prawne kary w wysokości 31 000 dolarów za wykorzystanie sztucznej inteligencji do stworzenia sztucznych wniosków sądowych, które zawierały sfałszowane cytaty prawne. Dokument sądowy związany ze State Farm zawierał fałszywe odniesienia sądowe, które prawnicy z obu firm zaniedbali sprawdzić.

Sędzia Michael Wilner wyraził swoje rozczarowanie w stosunku do prawników za brak weryfikacji treści generowanych przez AI, co prawie doprowadziło do umieszczenia mylących informacji w wyroku sądowym.

Spodobał Ci się ten artykuł? Oceń go!
Był okropny Nie podobał mi się Był w porządku Był całkiem dobry! Był super!

Cieszymy się, że doceniasz to, co robimy!

Cenimy Twoją opinię. Czy możemy liczyć na ocenę na Trustpilot? Zajmie Ci to tylko chwilę. Będziemy zobowiązani. Dziękujemy za wsparcie!

Oceń nas na Trustpilot
0 Na podstawie głosów 0 użytkowników
Tytuł
Komentarz
Dziękujemy za Twoją opinię