W jaki sposób AI jest eksploatowana podczas konfliktu w Ukrainie? / fotografia poglądowa
Joanna Kamińska
Reklama
W tym artykule znajdziesz odpowiedzi na poniższe pytania:
- W jaki sposób inteligencja maszynowa przeobraża charakter operacji wojennych w Ukrainie?
- Jakie rozwiązania AI są używane przez wojska ukraińskie i rosyjskie?
- Jakie są projektowane ścieżki rozwoju samodzielnych systemów zbrojeniowych?
- Jakie trudności i niebezpieczeństwa łączą się z całkowitym zastosowaniem AI w systemach obronnych?
Zgodnie z raportami, zarówno wojska ukraińskie, jak i rosyjskie usilnie badają oraz wdrażają technologię sztucznej inteligencji na linii frontu, co zasadniczo modyfikuje naturę działań wojennych.
Reklama Reklama
Coraz powszechniejsze zastosowanie sztucznej inteligencji w działaniach bojowych
W obecnym konflikcie zbrojnym AI jest już używana przez obie strony do lokalizowania celów, zbierania danych wywiadowczych i neutralizacji min. BBC jako przykład przytacza rosyjski statek powietrzny bezzałogowy przejęty przez Ukraińców. Nie był to typowy dron – dzięki inteligencji maszynowej miał on możliwość samodzielnego wyszukiwania i atakowania obiektów. Istotne było jednak to, że nie wysyłał on ani nie odbierał jakichkolwiek sygnałów, co uniemożliwiało jego zakłócenie.
Przed tego rodzaju technologią zaalarmował w rozmowie z portalem Serhij Bieskrestnow, który jako doradca ukraińskich sił zbrojnych przeanalizował wiele dronów.
Dla armii ukraińskiej inteligencja maszynowa stała się już nieodzowna. Jak oznajmił wiceminister obrony Ukrainy, Jurij Myronenko, AI co miesiąc przetwarza ponad 50 tys. nagrań wideo z linii walk. Wspomaga to szybkie analizowanie tych ogromnych zasobów informacyjnych, rozpoznawanie celów i nanoszenie ich na mapę. W ten sposób wspiera planowanie strategiczne, efektywniejsze użycie zasobów, a w konsekwencji chroni ludzkie życie.
Reklama Reklama Reklama
Sztuczna inteligencja jest już także wykorzystywana przez ukraińskie wojsko na polu bitwy. Dzięki oprogramowaniu na niej opartemu drony wykrywają cel, a następnie autonomicznie pokonują ostatnie kilkaset metrów, aż do wykonania zadania. Ich zakłócanie jest niemożliwe, a zniszczenie – wyjątkowo trudne.
Czy niebawem możliwa będzie wojna w pełni autonomiczna?
Eksperci prognozują, że bezzałogowe systemy zbrojeniowe niebawem staną się w pełni samodzielną bronią zdolną do samodzielnego lokalizowania i eliminowania celów. Jak objaśnił Yaroslav Azhniuk, dyrektor generalny ukraińskiej firmy The Fourth Law, żołnierz będzie musiał jedynie wcisnąć przycisk w aplikacji na telefonie, nie będą konieczne od niego nawet umiejętności pilotażu. Wszystkie pozostałe zadania wykona dron: zlokalizuje cel, upuści materiały wybuchowe, oceni zniszczenia i powróci do bazy.
– Autonomiczny system zarządzany komputerowo może przewyższać człowieka pod wieloma względami. Może być bardziej uważny. Potrafi zidentyfikować cel prędzej niż człowiek. Może być sprawniejszy – podkreślił Azhniuk w rozmowie z BBC, szacując równocześnie, że do końca 2026 r. w użyciu może być już kilka tysięcy takich autonomicznych systemów.
Częściowe wprowadzenie tego typu systemu w niektórych ukraińskich urządzeniach już miało miejsce, co przyznał wiceminister Jurij Myronenko.
Ukraińscy specjaliści podchodzą jednak z rezerwą do pełnego zastosowania AI w systemach obronnych i w ten sposób do ich działania bez nadzoru człowieka.
Istnieje niebezpieczeństwo, że inteligencja maszynowa może nie rozróżnić ukraińskiego żołnierza od rosyjskiego, gdyż mogą nosić to samo umundurowanie, przyznał w rozmowie z BBC Vadym z firmy DevDroid wytwarzającej zdalnie kierowane karabiny maszynowe, które wykorzystują sztuczną inteligencję do samoczynnego wykrywania i śledzenia ludzi. Produkowana przez firmę Vadyma broń nie ma jednak opcji automatycznego strzelania w obawie przed ostrzałem własnych żołnierzy.
– Możemy ją włączyć, ale potrzebujemy większej praktyki i więcej uwag od oddziałów lądowych, aby zrozumieć, kiedy korzystanie z tej funkcji jest bezpieczne – powiedział Vadym.
Pojawiają się także niepokoje, że w pełni zautomatyzowane systemy mogą łamać zasady prowadzenia wojny. Utrudnione może być unikanie krzywdzenia cywilów lub odróżnianie żołnierzy, którzy pragną się poddać.
Według wiceministra Jurija Myronenko, w takich sytuacjach ostateczna decyzja winna należeć do człowieka, chociaż AI mogłaby pomóc w jej podjęciu. Nie ma jednak gwarancji, że państwa lub grupy zbrojne będą przestrzegać w tym obszarze międzynarodowych norm humanitarnych. Z tej przyczyny jeszcze ważniejsze staje się przeciwdziałanie tym zautomatyzowanym systemom.
Reklama Reklama Reklama
BBC przypomina, że ukraiński prezydent Wołodymyr Zełenski zaapelował do ONZ o ustanowienie globalnych zasad odnoszących się do używania sztucznej inteligencji w broni. Wyraził on opinię, że kwestia ta jest „równie nagląca, jak zapobieganie szerzeniu broni jądrowej”.