
Google prowadzi rozmowy z Departamentem Obrony USA na temat integracji Gemini z systemami Pentagonu we wszystkich kategoriach dostępu do danych, od jawnych po ściśle tajne, podaje portal The Information, powołując się na źródła.
Umowa umożliwi Ministerstwu Obrony Narodowej wykorzystywanie rozwiązań Google „do wszelkich zgodnych z prawem celów”.
Podczas negocjacji korporacja zaproponowała dodanie klauzul, które uniemożliwiłyby wykorzystanie Gemini do masowej inwigilacji obywateli lub tworzenia autonomicznej broni.
Rzecznik Pentagonu odmówił bezpośredniego komentarza na temat dialogu z Google, podkreślił jednak, że agencja będzie nadal wdrażać zaawansowane technologie sztucznej inteligencji poprzez bliską współpracę z sektorem prywatnym na wszystkich poziomach tajności.
Skandal antropiczny
Niedawny konflikt między Pentagonem a startupem zajmującym się sztuczną inteligencją Anthropic wybuchł właśnie na tym gruncie. Zaowocował pozwem sądowym i zakazem prezydenta USA Donalda Trumpa na korzystanie z technologii firmy we wszystkich agencjach federalnych.
Warunki wstępne pojawiły się w lipcu 2025 roku. W tym czasie Departament Obrony USA podpisał kontrakty o wartości do 200 milionów dolarów z firmami Anthropic, Google, OpenAI i xAI na opracowanie rozwiązań AI dla bezpieczeństwa. Dyrekcja ds. Cyfryzacji i AI Departamentu Obrony planowała wykorzystać ich rozwiązania do stworzenia systemów agentowych. Spośród wszystkich wykonawców, tylko narzędzia Anthropic zostały zintegrowane ze środowiskami tajnymi ze względu na ich wysoką jakość.
Jednak w styczniu 2026 roku „Wall Street Journal” doniósł o ryzyku zerwania umowy. Nieporozumienia wynikały z surowej polityki etycznej startupu: zasady Anthropic zabraniają wykorzystywania modelu Claude do masowego nadzoru i autonomicznych operacji śmiercionośnych.
Niezadowolenie urzędników nasiliło się w związku z integracją chatbota Grok z siecią Pentagonu. Sekretarz obrony Pete Hegseth, komentując partnerstwo z xAI, podkreślił, że departament „nie będzie korzystał z modeli, które nie dopuszczają wojny”.
Sytuacja zaostrzyła się w lutym 2026 r., gdy armia amerykańska zaangażowała Claude'a w operację mającą na celu pojmanie prezydenta Wenezueli Nicolasa Maduro.
Prezes startupu, Dario Amodei, powiedział, że Anthropic wolałby nie współpracować z Pentagonem, niż wykorzystywać swoją technologię w sposób, który mógłby „podważać, a nie chronić wartości demokratyczne”. Potwierdził, że problem leży w potencjalnym wykorzystaniu narzędzi takich jak Claude do dwóch celów: „masowego nadzoru w kraju” i „w pełni autonomicznej broni”.
Podstawą popularności produktów startupu było stanowisko firmy Anthropic oparte na zasadach — użytkownicy docenili gotowość deweloperów do obrony ich interesów.
Jednocześnie OpenAI spotkało się z krytyką za umowę z Departamentem Obrony, decyzję, którą Sam Altman później nazwał pochopną.
Powrót do początku
Obecne negocjacje Google z Pentagonem przypominają wydarzenia z 2018 roku. Wtedy to korporacja wycofała się z udziału w Projekcie Maven, programie, w którym sztuczna inteligencja miała być wykorzystywana do analizy nagrań wideo z dronów.
Firma wycofała się z projektu z powodu wyraźnego niezadowolenia pracowników. Ponad 3000 osób podpisało otwarty apel do kierownictwa, domagając się zaprzestania rozwoju sztucznej inteligencji dla dronów bojowych. Incydent wywołał szeroką dyskusję w branży technologicznej na temat dopuszczalności wykorzystywania algorytmów do celów wojskowych.
Od tego czasu Google systematycznie odbudowuje relacje z rządem. W 2022 roku firma utworzyła specjalną jednostkę do współpracy z sektorem publicznym.
W 2024 roku firma podpisała umowę z Ministerstwem Obrony Narodowej o współpracy w dziedzinie sztucznej inteligencji. Ograniczała się ona do wykorzystania technologii w segmencie niejawnym.
Na początku 2025 roku Google usunęło z wewnętrznej polityki dotyczącej sztucznej inteligencji klauzulę, która wyraźnie zabraniała stosowania tej technologii w „broni i systemach nadzoru”.
Potencjalne podpisanie kontraktu obejmującego pracę w środowiskach tajnych oznacza wyjście poza ramy zwykłej „współpracy”. Taki krok sygnalizuje gotowość do pełnej integracji technologii firmy z kluczowymi operacjami obronnymi.
Pracownicy przeciwko
Zaangażowanie Google w kontrakty obronne w dalszym ciągu budzi wewnętrzne niezadowolenie.
W 2018 roku firma obiecała, że nigdy nie będzie pracować nad technologią wojskową. Jednak w kwietniu 2024 roku ujawniła, że oferuje izraelskiemu Ministerstwu Obrony usługi przetwarzania w chmurze i dostęp do usług AI.
W tym kontekście około 200 pracowników DeepMind, działu sztucznej inteligencji Google, złożyło formalny protest. Wezwali do zerwania umów z agencjami obronnymi. Autorzy inicjatywy obawiają się, że zaawansowane osiągnięcia laboratorium zostaną przekazane armiom prowadzącym rzeczywiste operacje bojowe.
„Jakiekolwiek zaangażowanie w produkcję wojskową i zbrojeniową negatywnie wpływa na naszą pozycję lidera w dziedzinie etycznej i odpowiedzialnej sztucznej inteligencji, a także jest sprzeczne z naszą misją i deklarowanymi zasadami sztucznej inteligencji” – stwierdzono w dokumencie, który podpisało około 5% pracowników.
Pentagon nalega
W lutym media dowiedziały się, że Pentagon apeluje do wiodących firm z branży sztucznej inteligencji o udostępnienie swoich narzędzi w tajnych środowiskach bez standardowych ograniczeń, które zwykle obowiązują użytkowników.
Sieci te są wykorzystywane do szerokiego zakresu wrażliwych zadań, od planowania operacji po celowanie bronią. Wojsko chce wykorzystać zdolność sztucznej inteligencji do syntezy informacji, aby wspierać proces decyzyjny.
Sieci neuronowe mogą jednak popełniać błędy i fałszować fakty. Użycie takich narzędzi w warunkach bojowych grozi fatalnymi konsekwencjami.
Firmy zajmujące się sztuczną inteligencją starają się minimalizować negatywne aspekty swoich produktów, ale Pentagon jest oburzony takimi ograniczeniami.
Przypomnijmy, że Ministerstwo Obrony zamierza przyspieszyć podejmowanie decyzji przy wykorzystaniu sztucznej inteligencji i uczynić ją centralnym elementem strategii łączenia czujników i systemów uderzeniowych w operacjach bojowych.
