
Image generated using ChatGPT
Opinia: Sztuczna Inteligencja w Wojnie—Cichy Przesuw Technologicznego Przemysłu w Kierunku Pola Bitwy
Dyskusja na temat autonomicznych broni, polityki bezpieczeństwa technologicznego oraz etyki AI w wojsku trwa od dłuższego czasu, ale ostatnie dni przyniosły istotne wydarzenia. Liderzy z OpenAI, DeepSeek, a nawet założyciel Spotify ogłosili nowe porozumienia o współpracy z rządami w zakresie technologii obronnych i strategicznej AI
Napięcia wokół użycia sztucznej inteligencji w wojnie wzrosły w ciągu ostatnich dni. W tym miesiącu, kilka firm technologicznych ogłosiło nowe strategiczne partnerstwa z rządami w celu rozwoju projektów obronnych. I, jak to często bywa w obszarze AI, w ostatnich miesiącach nastąpiła znacząca zmiana w podejściu do AI w kontekście rozwoju wojskowego i broni.
Zaledwie kilka dni temu, OpenAI i rząd USA ogłosili transakcję na kwotę 200 milionów dolarów na rozwój narzędzi obronnych zasilanych przez sztuczną inteligencję. Szczegóły pozostają skąpe, a urzędnicy podkreślają „operacje administracyjne” jako główne zastosowanie.
Tymczasem szwedzki przedsiębiorca i założyciel Spotify Daniel Ek wspiera niemiecką firmę Helsing, prowadząc rundę inwestycyjną na kwotę 600 milionów euro. Helsing, który początkowo skupiał się na technologii oprogramowania, teraz przechodzi do rozwoju dronów, łodzi podwodnych i samolotów.
Reuters niedawno ujawnił, że DeepSeek pomaga chińskim siłom wojskowym i operacjom wywiadowczym. Wysokiej rangi urzędnik amerykański powiedział, że start-up związany z AI pomaga rozwiązywać wyzwania związane z wojną handlową między USA a Chinami, a jego model open-source wspomaga chiński rząd w operacjach nadzorujących.
Technologiczne giganty współpracują z rządami w sposób, do którego nie jesteśmy przyzwyczajeni — przynajmniej nie tak otwarcie — i angażują się w działania, które tradycyjnie nie były częścią ich roli, jak dołączanie starszych wykonawców technologicznych do Rezerwy Armii USA.
Oddział 201 Armii: Executive Innovation Corps to inicjatywa mająca na celu rekrutację wysokiej rangi wykonawców technologicznych, którzy będą pełnić częściowy etat w Rezerwie Armii jako starsi doradcy, pomagając kierować szybkimi i skalowalnymi rozwiązaniami technologicznymi dla złożonych problemów. ⤵️ https://t.co/95LjcCmbYe
— U.S. Army Reserve (@USArmyReserve) 24 czerwca 2025
Co się dzieje?
Zmiana w mowie
Firmy technologiczne przeszły od stanowiska „Nigdy nie użylibyśmy AI do celów wojskowych” do „Może cicho usuniemy ten punkt z naszych zasad” aż do „Świetne wieści, teraz budujemy broń zasilaną przez AI dla rządu!”
Przynajmniej tak to wygląda dla uważnego obserwatora.
Niedawno temu giganci AI wydawali się dumni, że mogą oświadczyć, iż nigdy nie będą wspierać zastosowań militarnych, ale coś się zmieniło. Google to świetny przykład.
W 2017 roku Departament Obrony USA uruchomił Projekt Maven, zespół ds. algorytmicznej wojny, inicjatywę mającą na celu integrację AI z operacjami wojskowymi. Google początkowo brało udział, ale wewnętrzne protesty – napędzane przez obawy pracowników dotyczące etyki – skłoniły firmę do tymczasowego wycofania się.
W zeszłym roku pojawił się kolejny nacisk na działalność wojskową, a prawie 200 pracowników Google DeepMind wezwało firmę do zrezygnowania z kontraktów wojskowych.
„Każde zaangażowanie w produkcję militarną i broni wpływa na naszą pozycję jako liderów w etycznej i odpowiedzialnej sztucznej inteligencji, i jest sprzeczne z naszą misją oraz wyznawanymi zasadami AI,” napisali zaniepokojeni pracownicy.
Tym razem odpowiedzią Google było poczekać i cicho zaktualizować swoje wytyczne dotyczące etyki AI, usuwając część, w której stwierdzili, że nigdy nie opracują technologii AI, która mogłaby powodować szkody. Demis Hassabis, szef AI w Google, wyjaśnił, że po prostu dostosowują się do zmian na świecie.
Chociaż przypadek Google ilustruje ewoluujący związek między AI a wojskowym zastosowaniem, jest to tylko jeden przykład na szerszą zmianę w całej branży w kierunku realizacji celów obronnych.
AI przekształca sektor wojskowy i obronny
Rozpoczęcie Projektu Maven, czy jak niektórzy mogą go nazywać, „kiedy rząd USA zdał sobie sprawę, że duże modele językowe mogą być niezwykle przydatne w wojnie”, ujawniło jeden z powodów, dla których rząd USA jest zainteresowany AI.
Zdolności systemów AI do przetwarzania ogromnych ilości danych, identyfikowania obiektów na polu bitwy oraz analizowania obrazów są szczególnie atrakcyjne w sektorze obronnym.
Ulepszone analizy, przekraczające ludzkie możliwości
Od 2022 roku zarówno Ukraina, jak i Rosja zaczęły integrować systemy AI z swoimi operacjami wojskowymi.
Ukraiński rząd nawiązał współpracę z firmami technologicznymi i zastosował wiele strategii, aby jak najpełniej wykorzystać duże modele językowe. Ostatnio przetworzył 2 miliony godzin nagrań z pola bitwy—to odpowiednik 228 lat filmów—aby szkolić modele AI dla procesów wojskowych. Ile ludzi potrzebowaliby, aby przeanalizować taką ilość danych?
„To jest pokarm dla AI: Jeśli chcesz nauczyć AI, dajesz mu 2 miliony godzin (nagrań wideo), stanie się czymś nadprzyrodzonym,” wyjaśnił założyciel non-profitowego systemu cyfrowego OCHI, Oleksandr Dmitriev. Materiały filmowe mogą optymalizować wydajność broni i pomóc w doskonaleniu taktyki bojowej.
Inny system AI, Avengers, to platforma wywiadowcza napędzana przez sztuczną inteligencję, rozwijana przez Centrum Innowacji Ministerstwa Obrony Ukrainy, która przetwarza na żywo filmy z dronów i identyfikuje do 12 000 jednostek wroga tygodniowo.
Drony: Gorący towar na polu bitwy
Drony na polu bitwy, często nazywane „maszynami do zabijania”, są obecnie jedną z najcenniejszych technologii we współczesnej wojnie ze względu na ich autonomię, precyzję i niski koszt. Te roboty pozwalają walczącym narodom przeprowadzać uderzenia o dużym wpływie, nie narażając przy tym ludzkich pilotów i za ułamek tradycyjnych kosztów.
Do maja tego roku, Rosja rozmieściła ponad 3,000 dronów kamikaze Veter na Ukrainie. Te systemy są zdolne do samodzielnego identyfikowania celów i przeprowadzania ataków.
Zaledwie kilka dni temu, ukraińscy żołnierze wdrożyli drona Gogol-M, tzw. „mateczny” dron, który może pokonać do 300 kilometrów, przenosić inne drony, unikać radarów poprzez loty na niskich wysokościach i skanować grunt pod sobą, aby wykrywać i atakować wrogie wojska.
Według The Guardian, każdy atak za pomocą tego potężnego drona kosztuje około 10 000 dolarów, podczas gdy system rakietowy wykorzystujący nieco starszą technologię kosztowałby między 3 a 5 milionami dolarów.
Całkiem nowy startup Theseus szybko zebrał 4,3 miliona dolarów po tym, jak jego młodzi założyciele opublikowali post na platformie społecznościowej X w zeszłym roku, mówiąc, że zbudowali drona za mniej niż 500 dolarów, który mógł latać bez sygnału GPS.
zaprojektowaliśmy, wydrukowaliśmy w 3D i zbudowaliśmy drona za mniej niż $500, który oblicza współrzędne GPS bez sygnału, korzystając z kamery + google maps
w ciągu 24h pic.twitter.com/8P2QoQMNbW
— Ian Laffey (@ilaffey2) 18 lutego 2024
Chociaż technologia dronów nie jest jeszcze tak precyzyjna, jak by sobie tego życzyli niektórzy deweloperzy – szczególnie gdy jest zaburzona przez warunki pogodowe, które ograniczają jej „widoczność” – pokazała duży potencjał w sektorze.
Trudne do osiągnięcia globalne porozumienie
To nie tylko kraje będące w stanie wojny czy najważniejsze mocarstwa świata rozwijają nowe technologie oparte na sztucznej inteligencji do celów obronnych. Wiele narodów od lat integruje SI z działaniami z zakresu cyberbezpieczeństwa i rozwija autonomiczne systemy broni. To nie jest zjawisko ograniczone tylko do 2025 roku.
Od 2014 roku Narody Zjednoczone próbują uzgodnić ramy regulacyjne z wieloma państwami, bez sukcesu.
Ponad 90 narodów niedawno zgromadziło się na Zgromadzeniu Ogólnym ONZ w Nowym Jorku, aby omówić przyszłość autonomicznych broni sterowanych przez AI i ich regulacje. Nie doszły do porozumienia, a Zgromadzenie Ogólne uchwaliło jedynie niezobowiązującą rezolucję z 2023 roku, która ostrzega o konieczności zajęcia się problemem śmiertelnych systemów broni autonomicznej (LAWS).
Obecnie toczy się wielka debata na temat tego, czy wdrożyć globalną strukturę, czy nie. Wiele krajów zgadza się co do potrzeby ustanowienia nowych globalnych wytycznych, które mogą regulować prywatne firmy AI i narody. Inne kraje, takie jak USA, Chiny, Rosja i Indie, wolą zachować obecne prawa międzynarodowe i tworzyć, niezależnie, nowe dla każdego narodu zgodnie z ich lokalnymi potrzebami – czy interesami. I właśnie zaobserwowaliśmy, jak chaotyczny był proces tworzenia nowych przepisów dotyczących AI, nawet na poziomie stanowym w Kalifornii.
Coraz większe zaangażowanie firm technologicznych
Aktywiści tacy jak Laura Nolan z Stop Killer Robots obawiają się braku środków bezpieczeństwa i ram prawnych, które kontrolują postęp firm technologicznych w rozwijaniu autonomicznych broni i oprogramowania AI dla wojska.
„Zazwyczaj nie ufamy przemysłom, które samoregulują się… Nie ma żadnego powodu, dla którego firmy obronne czy technologiczne miałyby być bardziej godne zaufania,” powiedziała Nolan dla Reuters.
W 2024 roku badacze ujawnili, że chińskie instytucje wykorzystywały otwarty model językowy Llama firmy Meta w celach wojskowych. Pentagon zawarł umowę z Scale AI na rozwój Thunderforge—projektu AI mającego na celu modernizację podejmowania decyzji wojskowych. A OpenAI nawiązała współpracę z kontraktorem wojskowym Anduril—sojusznikiem obronnym armii USA, Wielkiej Brytanii, Ukrainy i Australii.
Start-upy obronne również rosną w Europie, zdobywając grunt nie tylko w rozwoju nowych technologii i projektów, ale również w przyciąganiu czołowych talentów.
Skomplikowany rozwój
Kolejnym czynnikiem ściśle związanym z zaangażowaniem firm technologicznych w strategie obronne krajów jest nacjonalizm. Coraz więcej programistów i ekspertów od AI wybiera prace nad projektami, które są zgodne z ich ideałami i korzeniami kulturowymi, zamiast po prostu gonić za wyższymi zarobkami. Niektórzy nawet odrzucili oferty pracy w USA, które oferowały dwa razy większe wynagrodzenie – takie jak Google czy OpenAI – aby dołączyć do europejskich przedsięwzięć, jak na przykład Helsing.
Nici polityki, technologii, nacjonalizmu i ideologicznych bitew stają się coraz bardziej ze sobą splecione, często pomijając rozważania na temat etyki, moralności i humanizmu.
Najnowsze wydarzenia jasno pokazują, że giganci technologiczni odgrywają ogromną rolę w działaniach militarnych i obronnych na całym świecie. Rozwój autonomicznych broni i technologii związanych z wojną postępuje w szalonym tempie, podczas gdy starania Organizacji Narodów Zjednoczonych o ustanowienie międzynarodowych umów i regulacji na przyszłość ludzkości wydają się coraz bardziej zminimalizowane.
Bez międzynarodowych porozumień – a z ambitnymi firmami technologicznymi, wspieranymi przez rządy w celu opracowania najpotężniejszych na świecie broni wykorzystujących sztuczną inteligencję – co przyszłość ma do zaoferowania ludzkości w nadchodzących latach?