AI na współczesnym polu walki

W XIX wieku, pruski feldmarszałek Helmuth Karl Bernhard von Moltke prowadził działania wojenne przeciw Francji w warunkach niedoboru informacji. Wprowadził wtedy pojęcie „mgły informacyjnej”.

Żołnierze i nowoczesny sprzęt bojowy na polu walki
Loading the Elevenlabs Text to Speech AudioNative Player…

Blisko 200 lat później sztuczna inteligencja zalewa centra dowodzenia danymi w takich ilościach, że… niejednokrotnie doprowadza do sytuacji, w których decyzje podejmowane są w warunkach dużej niepewności. 

Specjaliści technologii AI dążyli do tego, by współczesna broń wspomagana przez nowoczesne technologie uderzała celnie i skutecznie. I jednocześnie oszczędzała cywilów. 

Co spowodowało, że to nie działa?

Konflikt w Strefie Gazy. Izraelskie systemy AI do identyfikacji i namierzania celów

W 2021 roku izraelski generał brygady, dowódca elitarnej jednostki wywiadowczej, napisał pod pseudonimem Y. S., książkę o modelu partnerskiej współpracy człowieka ze sztuczną inteligencją. Efektem jej, według autora powinno być wzajemne doskonalenie obu stron, skutkujące wzrostem efektywności działań, poprawą bezpieczeństwa i ogólnego dobrostanu. 

Jednak atak Hamasu z siódmego października 2023 roku skasował ten scenariusz. 

W ramach przygotowań się do odpowiedzi izraelskie Siły Obronne (IDF) wspólnie z Unit 8200, elitarną jednostką izraelskiego wywiadu, opracowały zaawansowane systemy AI do wspomagania operacji militarnych w Strefie Gazy. Powstały trzy niewinnie nazywające się zespoły aplikacji: Lavender (pol. Lawenda), Habsora (pol. Ewangelia) i Where’s Daddy (pol. Gdzie jest Tata). 

Lavender jest systemem identyfikacji celów osobowych. Dzięki algorytmom uczenia maszynowego analizuje różne formaty danych wywiadowczych: od informacji wizualnych, danych z telefonów komórkowych, przez połączenia w mediach społecznościowych i sieci kontaktów, aż po informacje z pola bitwy. Zaprojektowano go do identyfikacji wszystkich domniemanych bojowników Hamasu i Islamskiego Dżihadu. Sklasyfikował on jako potencjalne cele około 37 000 Palestyńczyków. Źródła izraelskie zapewniały, że system ten charakteryzuje się 90-procentową dokładnością. „Dopuszczalny błąd w warunkach wojny” obejmował osoby o tych samych nazwiskach, współdzielące telefony z członkami Hamasu, te, które miały kontakt z kimś z Hamasu i te, które często zmieniały numery telefonów. No i te, które zostały źle sklasyfikowane przez system… tak po prostu.

Habsora to system identyfikacji celów o szerszym zakresie działania. Szuka wrogich budynków, sprzętu i osób. Na podstawie danych statystycznych kalkuluje również prawdopodobną liczbę ofiar cywilnych, które ucierpią przy  ataku na dany cel. Generuje ok. 100 celów dziennie. Dla porównania, wcześniej analitycy byli w stanie zidentyfikować do 50 celów… rocznie. 

Where’s Daddy to system śledzenia zidentyfikowanych wcześniej przez system Lavender celów osobowych i informowania IDF o ich powrocie do domów rodzinnych. Jeden z oficerów wywiadu wyjaśnił strategię: IDF bombardował ich w domach bez wahania, to była skuteczniejsza i tańsza opcja w porównaniu do próby trafienia w bunkrze lub tunelu. Zapytane o tego typu przypadki ataków, Siły Obronne Izraela (IDF) oświadczyły: „IDF kategorycznie odrzucają twierdzenia o stosowaniu jakiejkolwiek strategii polegającej na zabijaniu ludzi w ich domach”.

Opisane wyżej systemy tworzą łańcuch decyzyjny: znajdź–namierz–śledź–wyceluj. Niestety rola człowieka została zredukowana do roli komponentu „zatwierdzającego”. W wyniku tego oficerowie często mieli zaledwie 20 sekund na zatwierdzenie celu. Często mogli jedynie upewnić się, że cel jest płci męskiej. W pierwszych 35 dniach konfliktu IDF zaatakowało ponad 15 000 celów. Strona izraelska zaakceptowała przy tym znaczne straty cywilne: w celu zlikwidowania młodszego rangą bojownika Hamasu przewidywano zabicie 15-20 niewinnych, a dla wyższych rangą dowódców ponad 100 cywilów na cel. Rodziny i sąsiedzi byli uznawani za „szkody uboczne”.

Wykorzystanie tych systemów wywołało debatę na temat odpowiedzialności za błędy systemów AI i zgodności z międzynarodowym prawem. 

Sekretarz Generalny ONZ Antonio Guterres i ówczesny rzecznik Białego Domu, John Kirby wyrazili zaniepokojenie. Tak, zaniepokojenie.

Wojna w Ukrainie. Laboratorium Dronów i AI

Ukraina w obliczu rosyjskiej agresji postawiła na rozwój „dronowej Doliny Krzemowej”. Przy wykorzystaniu kapitału i technologii zagranicznych firm oraz potencjału rodzimych specjalistów branży high-tech, strona ukraińska była w stanie uruchomić Brave1, rządowy program wspierania technologicznych start-upów. Próbują one między innymi – przez rozwój systemów bezzałogowych – rozwiązać problem chronicznego niedoboru żołnierzy. Władze Ukrainy podkreślają, że autonomiczna broń jest „logicznym i nieuniknionym następnym etapem” modyfikacji uzbrojenia.

Ukraińska firma Swarmer buduje roje dronów, które automatycznie znajdują cele, wzywają posiłki i weryfikują skutki działań innych formacji. Rola człowieka jest minimalna – sprowadza się do naciśnięcia kilku przycisków, by uruchomić system i zatwierdzić plan ataku. Konflikt w Ukrainie przyspieszył wdrażanie technologii zabezpieczania pola walki. Myślę tu o amerykańskim Programie Maven oraz produktach takich firm jak Palantir i Clearview. Technologie te automatyzują tworzenie „backendu” wojny, gromadzą dane z wszelkich dostępnych źródeł, w tym mediów społecznościowych rosyjskich żołnierzy. Powstaje aktualizowana na bieżąco mapa działań, co radykalnie zmienia tempo i skuteczność działań wojennych. Równolegle jest tworzona dokumentacja, która będzie podstawą żądań ewentualnych przyszłych reparacji i oskarżeń o zbrodnie wojenne.

Potencjalne scenariusze i globalne implikacje. Tajwan i Chiny oraz USA

Tajwan wraz z USA opracowują strategię odstraszania – plan Hellscape, który zakłada uruchomienie rojów tysięcy dronów, autonomicznych łodzi i torped uderzających w kluczowe jednostki wroga oraz systemów mających ogłupić układy obrony potencjalnego napastnika. Wszystko ma działać z minimalnym udziałem człowieka lub bez niego. 

150 kilometrów od Tajwanu są Chiny. Globalny lider w produkcji dronów, którego znaczna część budżetu wojskowego (szacowanego według oficjalnych danych na ok. 700 mld USD rocznie) jest przeznaczana na bezzałogowe systemy sterowane przez AI. Przykładem jest „Zhu Hai Yun”, formalnie statek badawczy, ale uważany za prototyp bazy dla flotylli dronów.

Sztuczna inteligencja odgrywa coraz większą rolę w podejmowaniu decyzji militarnych. Doświadczenia z Ukrainy i Gazy wpływają na rozwój podobnych technologii w armiach na całym świecie. Kluczowe problemy to akceptacja znacznych strat cywilnych i ryzyko eskalacji konfliktu. 

Minimalizowana rola działającego pod presją czasu człowieka, powoduje brak reakcji na wadliwie działające algorytmy. Problemem też są błędy wynikające z nadmiernego zaufania do AI.

Proces porozumienia komplikuje brak wspólnych regulacji prawnych i niemożność ustalenia obowiązującej wszystkich jednolitej definicji autonomicznych systemów uzbrojenia.

Fan nowych technologii i historii. Z natury stoik i minimalista.

Podziel się

Może Cię zainteresować