Studium Claude AI ujawnia, jak chatboty stosują etykę w rzeczywistych rozmowach

Image by Christin Hume, from Unsplash

Studium Claude AI ujawnia, jak chatboty stosują etykę w rzeczywistych rozmowach

Przeczytasz w: 2 min

Claude AI pokazuje, jak zasady etyczne takie jak pomocność i przejrzystość wpływają na 300 000 rzeczywistych rozmów, poruszając pytania dotyczące zgodności chatbota.

W pośpiechu? Oto najważniejsze fakty:

  • Pomocność i profesjonalizm pojawiły się w 23% rozmów.
  • Claude odzwierciedlał pozytywne wartości, opierając się szkodliwym prośbom, takim jak oszustwo.
  • Wyrównanie AI wymaga udoskonalenia w sytuacjach o niejednoznacznych wartościach.

Nowe badanie przeprowadzone przez Anthropic rzuca światło na to, jak jego asystent AI, Claude, stosuje wartości w rozmowach w rzeczywistym świecie. Badanie analizowało ponad 300 000 anonimowych rozmów, aby zrozumieć, jak Claude balansuje pomiędzy etyką, profesjonalizmem a intencjami użytkownika.

Zespół badawczy zidentyfikował 3 307 oddzielnych wartości, które kształtowały odpowiedzi Claude’a. Wartości pomocności i profesjonalizmu pojawiały się razem w 23% wszystkich interakcji, a następnie transparentność na poziomie 17%.

Badanie wskazuje, że chatbot był w stanie zastosować etyczne zachowanie do nowych tematów, w elastyczny sposób. Na przykład, Claude podkreślał „zdrowe granice” podczas udzielania porad dotyczących związków, „historyczną dokładność” podczas rozmów o przeszłości, a „agencję człowieka” w debatach na temat etyki technologicznej.

Ciekawostką jest, że ludzcy użytkownicy wyrażali swoje wartości znacznie rzadziej – autentyczność i efektywność były najczęstszymi, występując zaledwie w 4% i 3% przypadków. Tymczasem Claude często odzwierciedlał pozytywne wartości ludzkie, takie jak autentyczność, i kwestionował szkodliwe.

Badacz zauważył, że prośby o wprowadzenie w błąd spotykały się z uczciwością, podczas gdy moralnie niejednoznaczne pytania wywoływały etyczne rozważania.

Badania zidentyfikowały trzy główne wzorce reakcji. AI dopasowało wartości użytkownika podczas połowy wszystkich rozmów. To było szczególnie widoczne, gdy użytkownicy omawiali działania prospołeczne, które tworzyły społeczność.

Claude używał technik przekształcania w 7% przypadków, aby skierować użytkowników ku emocjonalnemu dobrobytowi, gdy dążą do samodoskonalenia.

System wykazywał opór tylko w 3% przypadków, ponieważ użytkownicy żądali treści, które były szkodliwe lub nieetyczne. W tych konkretnych przypadkach system stosował zasady takie jak „zapobieganie krzywdzie” czy „godność człowieka”.

Autorzy argumentują, że zachowania chatbota – takie jak opór wobec krzywdy, priorytetowa szczerość i podkreślanie pomocności – ujawniają leżący u podstaw moralny szkielet. Te wzorce stanowią podstawę dla wniosków badania dotyczących tego, jak wartości AI przejawiają się jako etyczne zachowanie w realnych interakcjach.

Podczas gdy zachowanie Claude’a odzwierciedla jego trening, badacze zauważyli, że wyrażenia wartości systemu mogą być dostosowane do sytuacji – co wskazuje na potrzebę dalszego udoskonalenia, zwłaszcza w sytuacjach zawierających niejednoznaczne lub sprzeczne wartości.

Spodobał Ci się ten artykuł? Oceń go!
Był okropny Nie podobał mi się Był w porządku Był całkiem dobry! Był super!

Cieszymy się, że doceniasz to, co robimy!

Cenimy Twoją opinię. Czy możemy liczyć na ocenę na Trustpilot? Zajmie Ci to tylko chwilę. Będziemy zobowiązani. Dziękujemy za wsparcie!

Oceń nas na Trustpilot
0 Na podstawie głosów 0 użytkowników
Tytuł
Komentarz
Dziękujemy za Twoją opinię