Anthropic Wydaje Swój Najnowszy Model Claude 4 z Ostrzeżeniami o Bezpieczeństwie

Photo by Luke Jones on Unsplash

Anthropic Wydaje Swój Najnowszy Model Claude 4 z Ostrzeżeniami o Bezpieczeństwie

Przeczytasz w: 3 min

Startup z dziedziny AI, Anthropic, wydał w ten czwartek swoją najnowszą i najpotężniejszą generację modeli AI, Claude 4. Firma technologiczna wprowadziła dwa modele, Claude Sonnet 4 i Claude Opus 4, w tym warstwę ochronną dla najnowszego, oznaczając go jako Poziom Bezpieczeństwa 3 ze względu na oszukańcze zachowanie i potencjalne ryzyko.

W pośpiechu? Oto najważniejsze fakty:

  • Anthropic wprowadził modele AI – Claude Sonnet 4 i Claude Opus 4, najbardziej zaawansowane modele w ofercie firmy.
  • Firma AI zapewniła, że opracowała „najlepszy model kodowania na świecie”.
  • Claude Opus 4 otrzymał etykietę Poziomu Bezpieczeństwa 3 ze względu na potencjalne ryzyko i zachowania wprowadzające w błąd.

Zgodnie z ogłoszeniem, nowe modele AI charakteryzują się zaawansowanymi możliwościami kodowania, udoskonalonym rozumowaniem i agentywnym zachowaniem. Claude Sonnet 4 i Claude Opus 4 to hybrydowe modele, które mogą przeszukiwać sieć w trybie rozszerzonego myślenia i jednocześnie wykonywać wiele zadań.

Anthropic twierdzi także, że te nowe modele przewyższają konkurencyjne systemy, takie jak OpenAI o3, OpenAI GPT-4.1 i Gemini 2.5 Pro.

„Claude Opus 4 to najlepszy na świecie model kodowania, który wykazuje trwałą skuteczność w realizacji skomplikowanych, długotrwałych zadań i procedur agenta” – głosi ogłoszenie. „Claude Sonnet 4 to znaczna aktualizacja Claude Sonnet 3.7, dostarczająca lepszego kodowania i rozumowania, a jednocześnie precyzyjniej reagująca na Twoje instrukcje.”

Według CNBC, Anthropic skupia się bardziej na ulepszaniu możliwości agenta chatbotów, niż na tworzeniu nowych chatbotów. Jared Kaplan, główny oficer naukowy Anthropic, powiedział, że zdają sobie sprawę, iż skomplikowane zadania mogą prowadzić do większych ryzyk i pracują nad ich łagodzeniem, pozwalając modelom AI wykonywać wiele zadań naraz.

„Trenujemy te modele od zeszłego roku i naprawdę na nie czekaliśmy” – powiedziała Kaplan w wywiadzie dla CNBC. „Myślę, że te modele są o wiele, wiele silniejsze jako agenci i programiści. To był zdecydowanie wewnętrzny wysiłek, zwłaszcza, że część nowej infrastruktury, której używaliśmy do trenowania tych modeli… spowodowała, że dla zespołów wszystko było na styk, jeśli chodzi o uruchomienie wszystkiego”.

Wraz z ogłoszeniem o nowych modelach, Anthropic opublikowało również notatkę dotyczącą bezpieczeństwa Claude Opus 4, podkreślając, że do modelu dołączono warstwę bezpieczeństwa, a oni aktywowali Poziom Bezpieczeństwa AI 3 (ASL-3) – wysoką klasyfikację ryzyka według standardowych protokołów bezpieczeństwa.

„Wdrażamy Claude Opus 4 z naszymi środkami ochronnymi ASL-3 jako działanie ostrożnościowe i tymczasowe,” mówi dokument. „Chcemy to jasno wyrazić, nie ustaliliśmy jeszcze, czy Claude Opus 4 zdecydowanie przekroczył Próg Możliwości, który wymaga ochrony ASL-3.”

Anthropic udostępniło bardziej szczegółowy raport wyjaśniający ryzyka związane z modelem – w tym jego zwodnicze zachowanie i potencjalne „zadania zastępcze związane z biologicznym uzbrojeniem” – oraz środki podjęte w celu zminimalizowania tych ryzyk. Firma AI zapewniła, że będzie nadzorować model i współpracować z innymi firmami, społeczeństwem obywatelskim i rządem w celu poprawy środków bezpieczeństwa.

Spodobał Ci się ten artykuł? Oceń go!
Był okropny Nie podobał mi się Był w porządku Był całkiem dobry! Był super!

Cieszymy się, że doceniasz to, co robimy!

Cenimy Twoją opinię. Czy możemy liczyć na ocenę na Trustpilot? Zajmie Ci to tylko chwilę. Będziemy zobowiązani. Dziękujemy za wsparcie!

Oceń nas na Trustpilot
0 Na podstawie głosów 0 użytkowników
Tytuł
Komentarz
Dziękujemy za Twoją opinię