Sztuczna inteligencja zdecyduje o zabiciu człowieka. ChatGPT idzie na wojnę

Sztuczna Inteligencja Zdecyduje O Zabiciu Czlowieka Chatgpt Idzie Na Wojne 9d0d67f, NEWSFIN

Autonomiczne roje dronów to przyszłość pola walki. Systemy AI coraz mocniej wchodzą do współczesnego arsenału wojennego.

Foto: Yelim LEE / AFP

Michał Duszczyk

Sztuczna inteligencja poszła do armii. Konflikty zbrojne w Izraelu i Ukrainie stały się poligonem doświadczalnym dla tej zaawansowanej technologii – boty nie tylko wspomagają wojskowych w analizie misji i prowadzeniu rozpoznania, ale również atakują żywe cele. Eksperci nie mają wątpliwości, że nadchodzi era autonomicznej broni, która zrewolucjonizuje oblicze wojen.

Wcześniej wydawało się, że na wykorzystanie AI do celów militarnych nie ma powszechnej zgody, ale kolejne doniesienia o użyciu takich systemów na polu walki stają się już codziennością. Co więcej, zdanie zmienił nawet OpenAI. Twórca popularnego ChatGPT w ramach nowej polityki użytkowania zniósł dotychczasowy zakaz wykorzystania tej technologii do działań bojowych.

Halucynacje sztucznej inteligencji i ofiary wśród cywilów

Zgodnie z nowymi wytycznymi OpenAI używanie zaawansowanej technologii, opracowanej przez tę wiodąca na rynku sztucznej inteligencji firmę, do „rozwoju broni” lub wspierania „wojska i działań wojennych” nie jest sprzeczne z regulaminem udostępniania modeli GPT. Spółka kierowana przez Sama Altmana wyjaśnia, że aktualizacja polityki odnosi się do przypadków, gdy użycie zaawansowanych algorytmów służyć ma misjom związanym z bezpieczeństwem narodowym. Można zatem wnioskować, że modele GPT nie trafią na front w Ukrainie, a zostaną wykorzystane np. do ochrony krajowej infrastruktury. Eksperci wskazują, że modele od OpenAI mogą być użyte w ramach partnerstw z agencjami rządowymi, takimi jak choćby działająca w strukturach Departamentu Obrony USA jednostka DARPA (Defense Advanced Research Projects Agency zajmuje się rozwojem nowatorskich technologii wojskowych), czy też w celu opracowywania rozwiązań w zakresie cyberbezpieczeństwa. Nie ma jednak wątpliwości, że zmiana podejścia po stronie OpenAI, firmy wspieranej miliardami dolarów przez Microsoft, który ma wart 22 mld dol. kontrakt z Pentagonem (chodzi o dostawę gogli rozszerzonej rzeczywistości), otwiera furtkę do przyszłego szerokiego zastosowania sztucznej inteligencji na polach bitew. A to – wedle analityków – będzie miało wpływ na sektor militarny w tak samo rewolucyjnym stopniu, jaki miała technologia nuklearna.

Heidy Khlaaf, dyrektor inżynieryjna w firmie Trail of Bits, specjalizująca się m.in. w bezpieczeństwie systemów autonomicznych, przekonuje na łamach serwisu The Intercept, iż twórcy ChatGPT muszą być świadomi zagrożeń, jakie idą za ich decyzją. – OpenAI doskonale zdaje sobie sprawę z ryzyka i szkód, jakie mogą wyniknąć z wykorzystania ich technologii w zastosowaniach wojskowych – zaznacza.

Przypadki stronniczości i halucynacji występujące w modelach wielkojęzykowych (LLM) są dość powszechne, podobnie jak ich ogólny brak dokładności. The Intercept wskazuje więc, iż użycie LLM w działaniach wojennych „może prowadzić jedynie do nieprecyzyjnych oraz stronniczych operacji, które mogą zwiększyć szkody i ofiary wśród ludności cywilnej”.

Broń autonomiczna zdecyduje o wygranej

Ale militarna machina AI już ruszyła. Światło dzienne ujrzały właśnie informacje, że Microsoft zaproponował Pentagonowi wykorzystanie innego popularnego narzędzia AI – systemu generowania obrazów Dall-E. To rozwiązanie od OpenAI miałoby pomóc Departamentowi Obrony w tworzeniu oprogramowania do przeprowadzania operacji wojskowych.

Ale Siły Zbrojne USA już wykorzystują sztuczną inteligencję i to w najróżniejszy sposób. Zaawansowane algorytmy pomagają m.in. w synchronizacji działań żołnierzy, dronów i robopsów. Ćwiczenia takie o kryptonimie Project Convergence Capstone 4 przeprowadzono półtora miesiąca temu w Camp Pendleton i Fort Irwin w Kalifornii. Wojskowi podkreślają, iż taka kooperacja ludzi (w manewrach uczestniczyło 4 tys. żołnierzy) z naziemnymi i powietrznymi inteligentnymi maszynami (użyto bezzałogowych pojazdów z bronią autonomiczną) ma poprawić możliwości obronne. A AI sprawia, że zarządzanie taką misją jest bezproblemowe. – Wszystko to było powiązane prostą siecią dowodzenia i kontroli, która była łatwa w obsłudze i intuicyjna. To było niesamowite – relacjonował ćwiczenia szef sztabu gen. Randy George, cytowany w komunikacie Departamentu Obrony USA.

Sztuczna inteligencja wykorzystywana jest już również na froncie. Ostatnio głośno zrobiło się o opartym na sztucznej inteligencji izraelskim systemie Lavender, który miał autonomicznie identyfikować cele bombardowań w Gazie (wskazał ich ponoć aż 37 tys.). AI może też wkrótce zabijać wrogich żołnierzy za naszą wschodnią granicą. Ukraiński minister transformacji cyfrowej Mychajło Fedorow w wywiadzie dla niemieckiego „Die Welt” zapowiedział bowiem, że jeszcze przed końcem br. na polu bitwy pojawią się prototypowe drony AI, które mają atakować w rojach. Kreml też testuje inteligentną broń – zakład Remdizel JSC zapowiedział już, że dostarczy rosyjskiej armii uniwersalny opancerzony pojazd bezzałogowy Zubiło. Ten autonomiczny wielozadaniowiec ma wspierać grupy szturmowe, transportować amunicję i rannych, a także stanowić mobilną stację dla dronów.

Źródło

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *