
Jak podaje WSJ, powołując się na źródła, armia amerykańska wykorzystała Claude’a z Anthropic w operacji pojmania prezydenta Wenezueli Nicolasa Maduro.
Misja obejmowała bombardowanie kilku celów w Caracas. Wykorzystanie modelu do takich celów jest sprzeczne z polityką publiczną firmy Anthropic. Regulamin firmy wyraźnie zabrania wykorzystywania sztucznej inteligencji do przemocy, rozwoju broni lub inwigilacji.
„Nie możemy komentować, czy Claude lub jakikolwiek inny model został wykorzystany w konkretnej operacji – tajnej lub innej. Każde użycie LLM – czy to w sektorze prywatnym, czy rządowym – musi być zgodne z naszymi zasadami dotyczącymi wdrażania sieci neuronowych. Ściśle współpracujemy z partnerami, aby zapewnić zgodność z tymi zasadami” – powiedział rzecznik Anthropic.
Przyjęcie Claude'a do Departamentu Obrony stało się możliwe dzięki współpracy Anthropic z Palantir Technologies, której oprogramowanie jest szeroko wykorzystywane przez wojsko i federalne agencje ścigania.
Po nalocie pracownik Anthropic zapytał kolegę z Palantir, jaką rolę sieć neuronowa odegrała w operacji pojmania Maduro, donosi WSJ. Przedstawiciel startupu powiedział, że firma nie omawiała wykorzystania swoich modeli w konkretnych misjach „z żadnym partnerem, w tym z Palantir”, ograniczając się do kwestii technicznych.
„Anthropic zobowiązał się do wykorzystania zaawansowanej sztucznej inteligencji w celu wspierania bezpieczeństwa narodowego USA” – dodał rzecznik firmy.
Antropiczny kontra Pentagon?
Rzecznik Pentagonu Sean Parnell ogłosił przegląd relacji z laboratorium sztucznej inteligencji.
„Nasz kraj potrzebuje partnerów gotowych pomóc bojownikom wygrać każdą wojnę” – powiedział.
W lipcu 2025 roku Departament Obrony USA przyznał firmom Anthropic, Google, OpenAI i xAI kontrakty o wartości do 200 milionów dolarów na opracowanie rozwiązań AI dla bezpieczeństwa. Dyrekcja ds. Cyfryzacji i AI agencji planowała wykorzystać ich prace do stworzenia systemów bezpieczeństwa opartych na agentach.
Jednak w styczniu 2026 roku „Wall Street Journal” poinformował, że umowa z Anthropic jest zagrożona zerwaniem. Konflikty wynikały z surowej polityki etycznej startupu. Przepisy zabraniają wykorzystywania modelu Claude do masowego nadzoru i autonomicznych operacji śmiercionośnych, co ogranicza jego wykorzystanie przez agencje wywiadowcze, takie jak ICE i FBI .
Niezadowolenie urzędników nasiliło się w związku z integracją chatbota Grok z siecią Pentagonu. Sekretarz obrony Pete Hegseth, komentując partnerstwo z xAI, podkreślił, że departament „nie będzie korzystał z modeli, które nie dopuszczają wojny”.
Presja na programistów
Powołując się na źródła, Axios poinformował, że Pentagon wywiera presję na cztery duże firmy zajmujące się sztuczną inteligencją, aby zezwoliły armii USA na korzystanie z tej technologii do „wszelkich uzasadnionych celów”. Obejmuje to m.in. rozwój broni, gromadzenie informacji wywiadowczych i operacje bojowe.
Anthropic odmawia zniesienia ograniczeń dotyczących inwigilacji obywateli USA i stworzenia w pełni autonomicznej broni. Negocjacje utknęły w martwym punkcie, ale szybkie zastąpienie Claude'a jest trudne ze względu na technologiczną przewagę tego modelu w konkretnych zadaniach rządowych.
Oprócz chatbota Anthropic, Pentagon korzysta z ChatGPT firmy OpenAI, Gemini firmy Google i Grok firmy xAI do zadań niejawnych. Wszystkie trzy zgodziły się złagodzić ograniczenia dla zwykłych użytkowników.
Obecnie trwają dyskusje nad przeniesieniem LLM do tajnej pętli i wykorzystaniem ich „do wszystkich uzasadnionych celów”. Jedna z trzech firm już się na to zgodziła, pozostałe dwie „wykazują się większą elastycznością” w porównaniu z Anthropic.
Militaryzacja sztucznej inteligencji
Stany Zjednoczone nie są jedynym krajem aktywnie wdrażającym sztuczną inteligencję w sektorze obronnym.
Chiny
W czerwcu 2024 roku ChRL wprowadziła dowódcę opartego na sztucznej inteligencji do symulacji wojskowych na dużą skalę, obejmujących wszystkie rodzaje wojsk ChALW . Wirtualny strateg dysponuje szerokimi uprawnieniami, szybko się uczy i doskonali taktykę podczas ćwiczeń cyfrowych.
W listopadzie media donosiły, że chińscy naukowcy zaadaptowali model Llama 13B firmy Meta do stworzenia narzędzia ChatBIT. Sieć neuronowa została zoptymalizowana pod kątem gromadzenia i analizy danych wywiadowczych, a także wspomagania decyzji operacyjnych.
Indie
New Delhi również postawiło na sztuczną inteligencję jako siłę napędową bezpieczeństwa narodowego. Rząd opracował strategie i programy na szczeblu krajowym, powołał specjalne instytucje i organy ds. wdrażania sztucznej inteligencji oraz uruchomił projekty mające na celu zastosowanie tej technologii w różnych sektorach.
Wielka Brytania
Londyn uznał sztuczną inteligencję za priorytet. W swojej „Strategii AI dla Obrony” (2022) departament postrzega sztuczną inteligencję jako kluczowy element przyszłych sił zbrojnych. W „Strategicznym Przeglądzie Obrony” (2025) technologia ta została określona jako fundamentalny element współczesnej sztuki wojennej.
O ile dotychczas sztuczna inteligencja w kontekście wojskowym była postrzegana jako narzędzie pomocnicze, o tyle obecnie brytyjskie siły zbrojne planują transformację w „siły zintegrowane technologicznie”, w których systemy AI powinny być wykorzystywane na wszystkich poziomach – od analityki w kwaterze głównej po pole bitwy.
Przypomnijmy, że w marcu 2025 r. Pentagon ogłosił wykorzystanie agentów AI do symulowania starć z zagranicznymi przeciwnikami.
