Anthropic Proponuje Ramy Transparentności dla Rozwoju Modelu AI

Photo by 2H Media on Unsplash

Anthropic Proponuje Ramy Transparentności dla Rozwoju Modelu AI

Przeczytasz w: 3 min

Firma zajmująca się sztuczną inteligencją, Anthropic, zaproponowała w poniedziałek ramy przejrzystości dla zaawansowanych modeli AI oraz firm rozwijających pionierskie systemy AI, przeznaczone do zastosowania na poziomie regionalnym lub międzynarodowym. Start-up przedstawił środki bezpieczeństwa, działania do podjęcia i minimalne standardy, które mają na celu zwiększenie przejrzystości AI.

W pośpiechu? Oto szybkie fakty:

  • Anthropic zaproponowała framework przejrzystości dla zaawansowanych modeli AI oraz firm rozwijających pionierskie systemy AI.
  • Techologiczna firma przyznaje, że szybki rozwój AI i pilna potrzeba zgody na ramy bezpieczeństwa do tworzenia bezpiecznych produktów są niezbędne.
  • Proponowany framework jest skierowany do dużych firm w branży.

Anthropic wyjaśniło w ogłoszeniu na swojej stronie internetowej, że rozwój modeli SI postępuje szybciej niż tworzenie zabezpieczeń i porozumień przez firmy, rządy czy środowisko akademickie. Firma technologiczna wezwała wszystkich zainteresowanych do przyspieszenia swoich wysiłków, aby zapewnić bezpieczny rozwój produktów SI i zaoferowała swój model (ramy) transparentności jako wzór lub punkt odniesienia.

„Potrzebujemy etapów przejściowych, aby zapewnić, że bardzo potężna sztuczna inteligencja jest rozwijana bezpiecznie, odpowiedzialnie i transparentnie,” mówi oświadczenie. „Proponujemy zatem ukierunkowany system transparentności, który mógłby być stosowany na szczeblu federalnym, stanowym lub międzynarodowym, i który obejmuje tylko największe systemy i twórców sztucznej inteligencji, jednocześnie ustanawiając jasne wymogi dotyczące ujawniania praktyk bezpieczeństwa.”

Podejście Anthropic zostało uproszczone, aby było elastyczne i lekkie. “Nie powinno to hamować innowacji w dziedzinie sztucznej inteligencji, ani spowalniać naszej zdolności do realizacji korzyści z AI – w tym odkrywania leków ratujących życie, szybkiego dostarczania świadczeń publicznych i krytycznych funkcji bezpieczeństwa narodowego,” wyjaśniła firma.

Firma technologiczna przyznała, że sztywne ramy i standardy mogą szybko stać się przestarzałe, ponieważ technologia nadal rozwija się w szybkim tempie.

Anthropic sugeruje, że wymogi przejrzystości AI powinny dotyczyć tylko dużych pionierskich twórców modeli, aby uniknąć obciążania małych startupów i deweloperów o niskim wpływie. Proponowany próg to 100 milionów dolarów rocznych przychodów lub 1 miliard dolarów rocznych wydatków kapitałowych.

Dużi deweloperzy powinni również stworzyć publiczny Bezpieczny Framework Rozwoju, który zawiera informacje o tym, jak zamierzają zminimalizować ryzyko, w tym szkody spowodowane przez niezgodne modele oraz tworzenie broni chemicznej, nuklearnej, biologicznej lub radiologicznej.

Jedną z najbardziej rygorystycznych propozycji jest ochrona informatorów. „Wyraźnie określ, że kłamstwo laboratorium na temat zgodności z jego frameworkiem jest naruszeniem prawa” – napisała firma Anthropic w udostępnionym dokumencie. Firma podkreśliła, że standardy przejrzystości powinny obejmować minimalną linię bazową i pozostawać elastyczne, z lekkimi wymaganiami, które pomagają osiągnąć konsensus.

Anthropic oczekuje, że ogłoszenie i proponowany ramowy plan przejrzystości posłużą jako wytyczne dla rządów do wprowadzenia w życie w formie prawa i promowania „odpowiedzialnej praktyki”.

Po wydaniu swojego najnowszego modelu AI, Claude 4, Anthropic zamieściło ostrzeżenie dotyczące bezpieczeństwa – oznaczając model jako Opus 4 na Poziomie Bezpieczeństwa 3 ze względu na potencjalne ryzyko.

Spodobał Ci się ten artykuł? Oceń go!
Był okropny Nie podobał mi się Był w porządku Był całkiem dobry! Był super!

Cieszymy się, że doceniasz to, co robimy!

Cenimy Twoją opinię. Czy możemy liczyć na ocenę na Trustpilot? Zajmie Ci to tylko chwilę. Będziemy zobowiązani. Dziękujemy za wsparcie!

Oceń nas na Trustpilot
0 Na podstawie głosów 0 użytkowników
Tytuł
Komentarz
Dziękujemy za Twoją opinię