Model AI DeepSeek Chwalony, Ale Wady Bezpieczeństwa Budzą Obawy

Image by Solen Feyissa, from Unsplash

Model AI DeepSeek Chwalony, Ale Wady Bezpieczeństwa Budzą Obawy

Przeczytasz w: 2 min

Model AI R1 od DeepSeek zachwyca swoimi umiejętnościami taniego rozumowania, jednak niektórzy naukowcy twierdzą, że generuje on niebezpieczne wyniki kodu dla politycznie wrażliwych regionów.

Spieszysz się? Oto krótkie fakty:

  • Model AI R1 firmy DeepSeek został przeszkolony za jedyne 294 000 dolarów.
  • R1 doskonale radzi sobie z zadaniami wymagającymi rozumowania, takimi jak matematyka i programowanie.
  • CrowdStrike odkryło, że DeepSeek generuje niebezpieczny kod dla grup o wysokiej wrażliwości politycznej.

Model AI DeepSeek R1 zaskakuje swoimi umiejętnościami ekonomicznego wnioskowania, jednak testy pokazują niebezpieczne wyniki kodu dla politycznie wrażliwych regionów, co budzi obawy ekspertów.

Amerykański rynek giełdowy doświadczył znaczących zakłóceń, gdy model R1 został udostępniony publicznie w styczniu. Scientific American (Sci Am) informuje, że w tym tygodniu, pierwsze recenzowane przez ekspertów badanie R1 zostało opublikowane w Nature.

Badanie wykazało, że R1 przeszedł szkolenie przy budżecie w wysokości $294,000, podczas gdy konkurenci wydali dziesiątki milionów dolarów.

„To jest bardzo mile widziane precedens,” powiedział Lewis Tunstall z Hugging Face, który recenzował artykuł. Huan Sun z Uniwersytetu Stanowego Ohio zgodziła się, mówiąc: „Przejście przez rygorystyczny proces recenzji naukowej zdecydowanie pomaga zweryfikować ważność i użyteczność modelu,” informuje Sci Am.

DeepSeek mówi, że R1 doskonale radzi sobie z zadaniami wymagającymi „rozumowania”, takimi jak matematyka i kodowanie, dzięki wykorzystaniu uczenia z wzmocnieniem, procesu, który nagradza system za samodzielne rozwiązywanie problemów.

Ale obok pochwał, amerykańska firma zajmująca się bezpieczeństwem, CrowdStrike, zwróciła uwagę na problemy z bezpieczeństwem, jak donosi The Washington Post.

Testy wykazały, że DeepSeek generuje mniej bezpieczny, a nawet szkodliwy kod, gdy użytkownicy prosili o informacje na temat grup, które są przeciwnikami Chin, takich jak Tybet, Tajwan i zakazana grupa duchowa Falun Gong.

Gdy poproszono o wygenerowanie kodu dla Państwa Islamskiego, 42,1 procent odpowiedzi było niebezpiecznych. Konkretnie, nawet gdy DeepSeek dostarczał kod, często zawierał on luki w zabezpieczeniach, które narażały systemy na ataki hakerskie.

Eksperci ostrzegają, że celowo wadliwy kod jest subtelniejszy niż drzwi tylnych, ale równie ryzykowny, mogący umożliwić nieautoryzowany dostęp lub manipulację krytycznymi systemami.

„To jest naprawdę interesujące odkrycie” – powiedziała Helen Toner z Georgetown University, jak podaje The Post. „To jest coś, czym ludzie się martwili – głównie bez dowodów.” CrowdStrike ostrzegł, że wprowadzanie błędów może ułatwić hakerom atakowanie celów.

The Post informuje, że DeepSeek nie odpowiedział na prośby o komentarz. Pomimo rosnącego uznania dla jego osiągnięć technicznych, firma teraz stoi przed trudnymi pytaniami dotyczącymi tego, czy polityka wpływa na bezpieczeństwo jej kodu.

Spodobał Ci się ten artykuł? Oceń go!
Był okropny Nie podobał mi się Był w porządku Był całkiem dobry! Był super!

Cieszymy się, że doceniasz to, co robimy!

Cenimy Twoją opinię. Czy możemy liczyć na ocenę na Trustpilot? Zajmie Ci to tylko chwilę. Będziemy zobowiązani. Dziękujemy za wsparcie!

Oceń nas na Trustpilot
0 Na podstawie głosów 0 użytkowników
Tytuł
Komentarz
Dziękujemy za Twoją opinię