
Photo by 2H Media on Unsplash
Anthropic Proponuje Ramy Transparentności dla Rozwoju Modelu AI
Firma zajmująca się sztuczną inteligencją, Anthropic, zaproponowała w poniedziałek ramy przejrzystości dla zaawansowanych modeli AI oraz firm rozwijających pionierskie systemy AI, przeznaczone do zastosowania na poziomie regionalnym lub międzynarodowym. Start-up przedstawił środki bezpieczeństwa, działania do podjęcia i minimalne standardy, które mają na celu zwiększenie przejrzystości AI.
W pośpiechu? Oto szybkie fakty:
- Anthropic zaproponowała framework przejrzystości dla zaawansowanych modeli AI oraz firm rozwijających pionierskie systemy AI.
- Techologiczna firma przyznaje, że szybki rozwój AI i pilna potrzeba zgody na ramy bezpieczeństwa do tworzenia bezpiecznych produktów są niezbędne.
- Proponowany framework jest skierowany do dużych firm w branży.
Anthropic wyjaśniło w ogłoszeniu na swojej stronie internetowej, że rozwój modeli SI postępuje szybciej niż tworzenie zabezpieczeń i porozumień przez firmy, rządy czy środowisko akademickie. Firma technologiczna wezwała wszystkich zainteresowanych do przyspieszenia swoich wysiłków, aby zapewnić bezpieczny rozwój produktów SI i zaoferowała swój model (ramy) transparentności jako wzór lub punkt odniesienia.
„Potrzebujemy etapów przejściowych, aby zapewnić, że bardzo potężna sztuczna inteligencja jest rozwijana bezpiecznie, odpowiedzialnie i transparentnie,” mówi oświadczenie. „Proponujemy zatem ukierunkowany system transparentności, który mógłby być stosowany na szczeblu federalnym, stanowym lub międzynarodowym, i który obejmuje tylko największe systemy i twórców sztucznej inteligencji, jednocześnie ustanawiając jasne wymogi dotyczące ujawniania praktyk bezpieczeństwa.”
Podejście Anthropic zostało uproszczone, aby było elastyczne i lekkie. “Nie powinno to hamować innowacji w dziedzinie sztucznej inteligencji, ani spowalniać naszej zdolności do realizacji korzyści z AI – w tym odkrywania leków ratujących życie, szybkiego dostarczania świadczeń publicznych i krytycznych funkcji bezpieczeństwa narodowego,” wyjaśniła firma.
Firma technologiczna przyznała, że sztywne ramy i standardy mogą szybko stać się przestarzałe, ponieważ technologia nadal rozwija się w szybkim tempie.
Anthropic sugeruje, że wymogi przejrzystości AI powinny dotyczyć tylko dużych pionierskich twórców modeli, aby uniknąć obciążania małych startupów i deweloperów o niskim wpływie. Proponowany próg to 100 milionów dolarów rocznych przychodów lub 1 miliard dolarów rocznych wydatków kapitałowych.
Dużi deweloperzy powinni również stworzyć publiczny Bezpieczny Framework Rozwoju, który zawiera informacje o tym, jak zamierzają zminimalizować ryzyko, w tym szkody spowodowane przez niezgodne modele oraz tworzenie broni chemicznej, nuklearnej, biologicznej lub radiologicznej.
Jedną z najbardziej rygorystycznych propozycji jest ochrona informatorów. „Wyraźnie określ, że kłamstwo laboratorium na temat zgodności z jego frameworkiem jest naruszeniem prawa” – napisała firma Anthropic w udostępnionym dokumencie. Firma podkreśliła, że standardy przejrzystości powinny obejmować minimalną linię bazową i pozostawać elastyczne, z lekkimi wymaganiami, które pomagają osiągnąć konsensus.
Anthropic oczekuje, że ogłoszenie i proponowany ramowy plan przejrzystości posłużą jako wytyczne dla rządów do wprowadzenia w życie w formie prawa i promowania „odpowiedzialnej praktyki”.
Po wydaniu swojego najnowszego modelu AI, Claude 4, Anthropic zamieściło ostrzeżenie dotyczące bezpieczeństwa – oznaczając model jako Opus 4 na Poziomie Bezpieczeństwa 3 ze względu na potencjalne ryzyko.