
Photo by Sasun Bughdaryan on Unsplash
Prawnicy z Anthropic biorą na siebie odpowiedzialność za halucynacje AI w procesie o naruszenie praw autorskich
W ten czwartek, prawnik firmy Anthropic przyznał, że użył niewłaściwego cytatu wygenerowanego przez firmowego AI chatbota, Claude’a, podczas trwającej sprawy o naruszenie praw autorskich w północnej Kalifornii. Firma AI jest obecnie w sporze sądowym z Universal Music Group (UMG), która pozwała Anthropic za użycie chronionych prawem autorskim tekstów piosenek do szkolenia jej modeli AI.
W pośpiechu? Oto szybkie fakty:
- Prawnik broniący Anthropic na sali sądowej przyznał, że użył błędnego cytatu wygenerowanego przez Claude’a.
- Błąd został poruszony przez prawników UMG podczas trwającej sprawy o prawa autorskie do muzyki w północnej Kalifornii.
- Dukanovic opisała sytuację jako „żenujący i niezamierzony błąd”.
Prawnicy, Ivana Dukanovic, wspólnik w Latham & Watkins, stwierdziła w złożonym w sądzie dokumencie, że Claude popełnił błąd w cytacie, podając nieprawidłowy tytuł i autora artykułu użytego w sprawie. Zaznaczyła jednak, że publikacja, link, rok i treść artykułu były poprawne.
„Nasze śledztwo w tej sprawie potwierdza, że była to uczciwa pomyłka w cytowaniu, a nie fabrykowanie autorytetu” – mówi dokument. „Przepraszamy za nieścisłość i wszelkie zamieszanie, które ten błąd wywołał.”
Według Reuters, wyjaśnienie Dukanovića pojawiło się po tym, jak prawnicy UMG powiedzieli, że naukowiec zajmujący się danymi Olivia Chen używała źródeł wygenerowanych przez sztuczną inteligencję, aby bronić Anthropic w tej sprawie.
Dukanovic wyjaśnił, że Chen użyła poprawnego artykułu z czasopisma American Statistician, ale prawnicy z Latham & Watkins dodali niepoprawny przypis dostarczony przez Claude:
Po tym, jak zespół Latham & Watkins zidentyfikował źródło jako potencjalne dodatkowe wsparcie dla zeznań pani Chen, poprosiłem Claude.ai o dostarczenie prawidłowo sformatowanego prawnego cytatu dla tego źródła, używając linku do poprawnego artykułu. Niestety, mimo dostarczenia poprawnego tytułu publikacji, roku publikacji i linku do podanego źródła, zwrócone cytowanie zawierało nieprecyzyjny tytuł i niepoprawnych autorów. Nasza ręczna weryfikacja cytatu nie wykryła tego błędu.
Dukanovic opisał sytuację jako „zawstydzający i niezamierzony błąd” i zapewnił, że wdrożyli nowe środki, aby zapewnić, że to się nie powtórzy.
Kilka tygodni temu, na wczesnym etapie procesu, ława przysięgłych orzekła na korzyść Anthropic i uznała żądania UMG za zbyt daleko idące. Ta nowa sytuacja mogłaby zagrażać przewadze Anthropic w sprawie.
W ciągu ostatnich kilku miesięcy, wielu prawników przedstawiło w sądach w Stanach Zjednoczonych nieprawidłowe dokumenty wygenerowane przez sztuczną inteligencję, co wywołało obawy i problemy prawne. W tym tygodniu, sędzia nałożył na dwie kancelarie prawne grzywnę w wysokości 31 000 dolarów za fałszywe cytaty prawne wygenerowane przez AI.