Image by Philipp Katzenberger, from Unsplash
System AI Obiecuje Inteligentniejszą Obronę Przed Malware z Ochroną Prywatności
Badacze opracowali nowy system do wykrywania i zwalczania złośliwego oprogramowania, wykorzystując technikę zwaną federacyjnym uczeniem (FL).
W pośpiechu? Oto najważniejsze informacje:
- Wykorzystuje uczenie federacyjne do ochrony prywatności podczas trenowania modeli.
- Testy laboratoryjne wykazały 96% skuteczności przeciwko głównym atakom cybernetycznym.
- Rzeczywista dokładność spadła do 59% przy skomplikowanych danych.
Grupa badaczy opracowała nową metodę kontrastowania wirusów komputerowych i ataków cybernetycznych w dużych sieciach. Tłumaczą, że system wykorzystuje sztuczną inteligencję i metodę nazywaną „uczeniem federacyjnym” do powstrzymywania zagrożeń, jednocześnie zachowując prywatność danych osobowych.
Pomysł polega na połączeniu zalet nowoczesnych sieci, które mają centralne „centrum sterowania”, z AI, które uczy się w bezpieczny, zdecentralizowany sposób. Zamiast gromadzenia wszystkich danych użytkownika w jednym miejscu, system udostępnia tylko aktualizacje modelu AI.
„Nasza architektura minimalizuje ryzyko naruszenia prywatności, gwarantując, że surowe dane nigdy nie opuszczą urządzenia; tylko aktualizacje modelu są udostępniane do agregacji na poziomie globalnym,” powiedział zespół.
We wstępnych testach laboratoryjnych, system wypadł bardzo dobrze. Zatrzymał do 96% dużych ataków cybernetycznych, takich jak botnety i rozdzielone ataki odmowy usługi (DDoS). Jednak gdy przetestowano go w bardziej realistycznych sytuacjach, dokładność spadła do około 59%. Badacze twierdzą, że pokazuje to, jak zdradliwe mogą być rzeczywiste zagrożenia cybernetyczne.
Mimo to, system działał szybko, wykrywając ataki w mniej niż sekundę i pomagając sieciom odzyskać prędkości od 300 do 500 megabitów na sekundę. Poradził sobie również z dużym ruchem danych bez spowolnienia wszystkiego.
Nowe narzędzie jest szczególnie dobre w wykrywaniu oczywistych, o dużym wpływie ataków. Ale nadal ma problemy z subtelniejszymi, takimi jak kiedy hakerzy potajemnie kradną informacje przez dłuższy czas. Aby to naprawić, badacze planują przeszkolić AI przy użyciu lepszych danych i udoskonalić sposób, w jaki uczy się wzorców. Chcą też dodać mocniejsze narzędzia do ochrony prywatności, takie jak bezpieczne metody udostępniania danych.