
Photo by Luke Jones on Unsplash
Anthropic Wydaje Swój Najnowszy Model Claude 4 z Ostrzeżeniami o Bezpieczeństwie
Startup z dziedziny AI, Anthropic, wydał w ten czwartek swoją najnowszą i najpotężniejszą generację modeli AI, Claude 4. Firma technologiczna wprowadziła dwa modele, Claude Sonnet 4 i Claude Opus 4, w tym warstwę ochronną dla najnowszego, oznaczając go jako Poziom Bezpieczeństwa 3 ze względu na oszukańcze zachowanie i potencjalne ryzyko.
W pośpiechu? Oto najważniejsze fakty:
- Anthropic wprowadził modele AI – Claude Sonnet 4 i Claude Opus 4, najbardziej zaawansowane modele w ofercie firmy.
- Firma AI zapewniła, że opracowała „najlepszy model kodowania na świecie”.
- Claude Opus 4 otrzymał etykietę Poziomu Bezpieczeństwa 3 ze względu na potencjalne ryzyko i zachowania wprowadzające w błąd.
Zgodnie z ogłoszeniem, nowe modele AI charakteryzują się zaawansowanymi możliwościami kodowania, udoskonalonym rozumowaniem i agentywnym zachowaniem. Claude Sonnet 4 i Claude Opus 4 to hybrydowe modele, które mogą przeszukiwać sieć w trybie rozszerzonego myślenia i jednocześnie wykonywać wiele zadań.
Anthropic twierdzi także, że te nowe modele przewyższają konkurencyjne systemy, takie jak OpenAI o3, OpenAI GPT-4.1 i Gemini 2.5 Pro.
Przedstawiamy następną generację: Claude Opus 4 i Claude Sonnet 4.
Claude Opus 4 to nasz najmocniejszy model do tej pory, a także najlepszy na świecie model do kodowania.
Claude Sonnet 4 to znacząca aktualizacja w stosunku do swojego poprzednika, dostarczając lepsze kodowanie i rozumowanie. pic.twitter.com/MJtczIvGE9
— Anthropic (@AnthropicAI) 22 maja 2025
„Claude Opus 4 to najlepszy na świecie model kodowania, który wykazuje trwałą skuteczność w realizacji skomplikowanych, długotrwałych zadań i procedur agenta” – głosi ogłoszenie. „Claude Sonnet 4 to znaczna aktualizacja Claude Sonnet 3.7, dostarczająca lepszego kodowania i rozumowania, a jednocześnie precyzyjniej reagująca na Twoje instrukcje.”
Według CNBC, Anthropic skupia się bardziej na ulepszaniu możliwości agenta chatbotów, niż na tworzeniu nowych chatbotów. Jared Kaplan, główny oficer naukowy Anthropic, powiedział, że zdają sobie sprawę, iż skomplikowane zadania mogą prowadzić do większych ryzyk i pracują nad ich łagodzeniem, pozwalając modelom AI wykonywać wiele zadań naraz.
„Trenujemy te modele od zeszłego roku i naprawdę na nie czekaliśmy” – powiedziała Kaplan w wywiadzie dla CNBC. „Myślę, że te modele są o wiele, wiele silniejsze jako agenci i programiści. To był zdecydowanie wewnętrzny wysiłek, zwłaszcza, że część nowej infrastruktury, której używaliśmy do trenowania tych modeli… spowodowała, że dla zespołów wszystko było na styk, jeśli chodzi o uruchomienie wszystkiego”.
Wraz z ogłoszeniem o nowych modelach, Anthropic opublikowało również notatkę dotyczącą bezpieczeństwa Claude Opus 4, podkreślając, że do modelu dołączono warstwę bezpieczeństwa, a oni aktywowali Poziom Bezpieczeństwa AI 3 (ASL-3) – wysoką klasyfikację ryzyka według standardowych protokołów bezpieczeństwa.
„Wdrażamy Claude Opus 4 z naszymi środkami ochronnymi ASL-3 jako działanie ostrożnościowe i tymczasowe,” mówi dokument. „Chcemy to jasno wyrazić, nie ustaliliśmy jeszcze, czy Claude Opus 4 zdecydowanie przekroczył Próg Możliwości, który wymaga ochrony ASL-3.”
Anthropic udostępniło bardziej szczegółowy raport wyjaśniający ryzyka związane z modelem – w tym jego zwodnicze zachowanie i potencjalne „zadania zastępcze związane z biologicznym uzbrojeniem” – oraz środki podjęte w celu zminimalizowania tych ryzyk. Firma AI zapewniła, że będzie nadzorować model i współpracować z innymi firmami, społeczeństwem obywatelskim i rządem w celu poprawy środków bezpieczeństwa.