
Image by Freepik
Sędzia Nakłada Grzywny na Prawników za Korzystanie z Fałszywych Badań Prawnych Wygenerowanych przez Sztuczną Inteligencję
Sędzia z USA ostro skrytykował dwie kancelarie prawne za dołączenie do wniosku sądowego fałszywych informacji prawnych wygenerowanych przez AI, nazywając to poważnym zaniedbaniem w zakresie odpowiedzialności prawnej.
W pośpiechu? Oto skrócone fakty:
- Sędzia nałożył na dwie kancelarie prawne karę w wysokości 31 000 dolarów za fałszywe cytaty prawne wygenerowane przez sztuczną inteligencję.
- Fałszywe informacje znaleziono w składanym do sądu memoriale prawnym w sprawie State Farm.
- Przynajmniej dwa cytowane przypadki prawne zostały całkowicie sfabrykowane przez sztuczną inteligencję.
Sędzia Michael Wilner, rezydujący w Kalifornii, nałożył na firmy grzywnę w wysokości 31 000 dolarów, odkrywszy, że pismo procesowe było wypełnione „fałszywymi, niedokładnymi i wprowadzającymi w błąd cytatami i odniesieniami prawnymi”, jak pierwotnie poinformowało WIRED.
„Żaden rozsądnie kompetentny prawnik nie powinien zlecać badania i pisania” sztucznej inteligencji – napisał Wilner w swoim wyroku, ostrzegając, że był blisko włączenia fałszywych spraw do rozkazu sądowego.
„Przeczytałam ich pismo, zostałam przekonana (lub przynajmniej zaintrygowana) przez autorytety, które cytowali, i sprawdziłam decyzje, aby dowiedzieć się o nich więcej – tylko po to, by odkryć, że nie istnieją” – powiedziała, jak informuje WIRED. „To jest przerażające” – dodała.
Sytuacja ta pojawiła się podczas procesu cywilnego przeciwko State Farm. Jeden z prawników użył narzędzi AI do opracowania szkicu dokumentu prawnego. Ten dokument, zawierający fałszywe badania, został przekazany większej kancelarii prawnej K&L Gates, która dołączyła go do oficjalnego wniosku.
„Żaden prawnik ani pracownik żadnej z firm prawdopodobnie nie sprawdził ani nie zrecenzował tych badań przed złożeniem wniosku” – zauważyła Wilner, jak donosi WIRED.
Po odkryciu, że co najmniej dwa z cytowanych przypadków były całkowicie zmyślone, sędzia Wilner poprosił K&L Gates o wyjaśnienie. Kiedy przesłali nową wersję, okazało się, że zawiera jeszcze więcej fałszywych cytatów. Sędzia zażądał wyjaśnienia, które ujawniło zeznania pod przysięgą, przyznające się do korzystania z narzędzi AI, jak donosi WIRED.
Wilner stwierdził: „Początkowe, nieujawnione użycie produktów AI do wygenerowania pierwszego szkicu memoriału było po prostu błędem […] A wysłanie tego materiału do innych prawników bez ujawnienia jego wątpliwego pochodzenia z AI narażało tych profesjonalistów na realne niebezpieczeństwo”, jak donosi WIRED.
To nie pierwszy raz, kiedy AI sprawia kłopoty w salach sądowych. Rzeczywiście, dwóch prawników z Wyoming niedawno przyznało się do używania sfabrykowanych przez AI spraw w dokumentach sądowych dotyczących pozwu przeciwko Walmart. Federalny sędzia groził im sankcjami.
W tym scenariuszu, „halucynacje” AI – wytworzone przez narzędzia AI informacje – stają się rosnącym problemem w systemie prawnym.