AI w cieniu lidera. Ukryte systemy sztucznej inteligencji zyskują na znaczeniu i niosą ryzyko dla odbiorców.

ChatGPT, Gemini, Copilot – to instrumenty sztucznej inteligencji, które stały się powszechne w środowisku biurowym. Jednakże, gdy pracownicy używają ich potajemnie, powstaje zjawisko shadow AI – niewidoczne dla firmy działanie, które może przenieść wrażliwe dane wprost do rąk cyberprzestępców. Przeanalizowaliśmy, jakie ryzyko wiąże się z tym fenomenem i jak unikać niebezpiecznych sytuacji.

Sztuczna Inteligencja Za Plecami Szefa Shadow Ai Ronie W Si I Zagraa Klientom 2fcf351, NEWSFIN

fot. DC Studio / / Shutterstock

Sztucznainteligencja na dobre wrosła w codzienną pracę wielu przedsiębiorstw. Systemy oparte na sztucznej inteligencji pomagają redagować treści, analizować dane, kreować obrazy lub usprawniać komunikację. Wraz jednak z ich wzrostem popularności pojawia się odmienne zjawisko – shadow AI, inaczej używanie tej technologii poza oficjalnymi kanałami i bez przyzwolenia instytucji.

Co to jestshadow AI?

Określenie shadow AI odnosi się do koncepcji shadow IT, które od lat charakteryzuje niezatwierdzone korzystanie z technologii informatycznych w miejscu zatrudnienia. Aczkolwiek w odniesieniu do AI chodzi o sytuacje, w których pracownicy na własną rękę posługują się instrumentami takimi jak ChatGPT, Copilot, Gemini albo Midjourney, aby szybciej zrealizować zlecenie, sporządzić raport, lub przygotować prezentację, nie zawiadamiając o tym swoich przełożonych lub działu IT.

Zwykle ma to miejsce z dobrych pobudek – pragną oszczędzić czas, zwiększyć produktywność lub po prostu zbadać, „czy AI podoła”. Kłopot pojawia się wtedy, gdy do ogólnodostępnych modeli trafiają poufne dokumenty albo informacje o petentach.

Poważne ryzyko wycieku danych

Jak podkreśla Matt Ausman, CIO w Zebra Technologies, największym niebezpieczeństwem jest tutaj szansa wyjawienia na zewnątrz tajnych informacji firmowych.

–Prowadzone w pracy rozmowy wideo i audio, aplikacje do komunikacji wewnętrznej oraz poczta elektroniczna nagminnie zawierają newralgiczne dane dotyczące korporacji, jej pracowników, klientów i kontrahentów. Mogą to być dane finansowe, własność intelektualna, informacje dotyczące ładu korporacyjnego i przepisów, a także dane osobowe, które wymagają szczególnej protekcji w zakresie przechowywania, dostępu, komunikacji i usuwania – mówi Bankier.pl Matt Ausman. – Jeśli jednostka zezwala pracownikom lub podmiotom zewnętrznym na korzystanie z własnych generatywnych, lub agentowych rozwiązań AI w ramach komunikacji wideo, audio lub pisemnej, oznacza to, że te dane są przejmowane i gromadzone przez sztuczną inteligencję. Prawdopodobnie są także używane do trenowania modeli AI i potencjalnie do innych celów – w zależności od ustaleń, jakie użytkownicy zaakceptowali, a których większość nie czyta.

Dwa niepokojące scenariusze

Według zdania specjalisty Zebra Technologies, ujawnienie danych może nastąpić w dwojaki sposób:

  • ponowne wykorzystanie danych firmy, które może przewidywać umowa z dostawcą narzędzia. Najczęściej wynika to z wynegocjowanych warunków lub z faktu, że pracownicy używają osobistych wersji sztucznej inteligencji. Jeżeli narzędzie AI jest darmowe, firma je oferująca musi w jakiś sposób zarabiać – najczęściej właśnie poprzez wykorzystanie informacji użytkowników,
  • niezamierzone ujawnienie danych przez dostawcę rozwiązania AI, co może mieć miejsce w wyniku cyberataku czy niedostatecznych zabezpieczeń systemowych. Korzystając z usług zewnętrznych dostawców narzędzi AI, firmy zlecają im ochronę własnych danych.

–We wpisach internetowych podaje się, że od 13 proc. do nawet 45 proc. informacji wprowadzanych do instrumentów generatywnej AI potencjalnie odsłaniało dane klientów lub inne informacje wrażliwe, stwarzając niebezpieczeństwo dla bezpieczeństwa lub zgodności – przekonuje Matt Ausman. – Znaczy to, że poufne informacje trafiają poza system zarządzania i bezpieczeństwa przedsiębiorstwa, a organizacja traci nad nimi kontrolę i podgląd. Może to także stanowić pogwałcenie krajowych lub regionalnych przepisów o ochronie danych oraz bez wątpienia naruszać zaufanie personelu, partnerów i klientów.

Brama do nowych form oszustw

Zdaniem Matta Ausmana używanie prywatnych narzędzi AI oznacza także, że wyciekłe dane mogą zostać wykorzystane przez cyberprzestępców do wytwarzania bardziej skomplikowanych oszustw typu deep fake (audio i wideo), phishingu lub smishingu.

–Takie machlojki mogą wykorzystywać prywatne dane przedsiębiorstwa lub pracowników, co podnosi ich wiarygodność i efektywność – utrzymuje ekspert. – Zdarzały się również przypadki, w których narzędzia AI generowały poufne dane. Istnieje prawdopodobieństwo, że użytkownicy sztucznej inteligencji w każdym miejscu na świecie, wprowadzając zapytania do modelu generatywnego, mogą otrzymać w odpowiedzi tajne informacje, które model przyswoił w procesie uczenia z innych źródeł.

AI może wymknąć się spod kontroli

Również według Przemysława Wójcika, prezesa AMP SA, shadow AI to coraz poważniejsze wyzwanie dla organizacji, ponieważ pracownicy nierzadko korzystają z instrumentów sztucznej inteligencji poza kontrolą działu bezpieczeństwa lub IT.

–Może to prowadzić do nieświadomego wyjawienia danych osobowych, tajnych informacji biznesowych lub konfiguracji systemów, co stanowi realne zagrożenie dla bezpieczeństwa – mówi Bankier.pl Przemysław Wójcik. – Instrumenty AI składują i przetwarzają wówczas informacje w sposób, nad którym organizacja nie ma żadnej władzy. Dlatego choćby jedno wklejenie fragmentu umowy czy logów serwera może być uznane jako incydent. Często te dane mogą być przetwarzane na serwerach poza obszarem UE i RODO. Dodatkowym ryzykiem są halucynacje modeli AI, czyli generowanie nieprawdziwych wiadomości, które mogą wprowadzać pracowników w błąd i skutkować błędnymi decyzjami biznesowymi.

Złośliwe oprogramowanie umożliwia cyberataki

Tymczasem najświeższe dane dotyczące niebezpieczeństwa ze strony AI są wstrząsające. Raport Elastic 2025 Global Threat Report, oparty na ponad miliardzie punktów danych z rzeczywistych środowisk produkcyjnych, ukazuje, że sztuczna inteligencja zrewolucjonizowała cyberprzestępczość. Cyberprzestępcy używają modeli AI do masowego tworzenia złośliwych programów, kradzieży danych poprzez rejestrowanie z różnych przeglądarek i automatyzowania ataków na chmurę.

–W ciągu roku zaobserwowaliśmy 15 proc. wzrost wykorzystania AI do kreowania złośliwego oprogramowania, które umożliwia cyberataki – oznajmia Przemysław Wójcik. – Najgorzej jest w środowisku Windows. Ataki z wykorzystaniem rozwiązań wytworzonych przez sztuczną inteligencję wzrosły tu o ponad 32,5 proc. Są one w ostatnim czasie szczególnie zauważalne w sektorach energetycznym, finansowym, a także zdrowotnym.  W konsekwencji takich poczynań cyberprzestępców dochodzi do kradzieży danych osobowych, które później są sprzedawane na czarnym rynku albo blokowana jest infrastruktura IT celem zdobycia okupu.

Koniec z nieautoryzowanym AI w pracy?

Jak twierdzi Matt Ausman, zespoły ds. bezpieczeństwa IT coraz częściej wprowadzają regulaminy i narzędzia mające na celu powstrzymanie zjawiska tzw. „BYOAI” (Bring Your Own AI), w tym blokowanie dostępu do niedozwolonych aplikacji AI na komputerach służbowych.

Coraz więcej firm inwestuje także w solidne i bezpieczne narzędzia sztucznej inteligencji, dzięki czemu potrzeba korzystania z prywatnych rozwiązań przez pracowników będzie stopniowo zanikać – twierdzi ekspert. – Wierzę, że z czasem będziemy obserwować ogólny spadek używania zewnętrznych narzędzi AI. Gdy kilka lat temu rozpoczął się boom na sztuczną inteligencję, firmy dysponowały ograniczonymi możliwościami blokowania dostępu do takich narzędzi – zwłaszcza tych wbudowanych w aplikacje korporacyjne lub istniejące aplikacje webowe. To się jednak zmienia, a aktualnie dostępne są coraz bardziej zaawansowane mechanizmy kontroli i blokowania.

Pracownicy muszą wiedzieć, jak korzystać ze sztucznej inteligencji

Zdaniem Przemysława Wójcika pracownicy często posługują się AI, nie rozumiejąc konsekwencji ani zasad bezpiecznego przetwarzania danych.

–Aby skutecznie się zabezpieczyć, organizacja powinna wprowadzić oficjalną politykę używania AI oraz jasno określić, jakie narzędzia są dozwolone – uważa prezes AMP SA. – Niezbędne jest także wdrożenie bezpiecznych rozwiązań AI. Kolejnym elementem ochrony są mechanizmy techniczne, takie jak web filtering, monitoring zdarzeń w SIEM oraz blokowanie nieautoryzowanych usług AI. Kluczową rolę odgrywa także klasyfikacja informacji oraz minimalizacja danych wysyłanych do systemów zewnętrznych. Tylko połączenie technologii, procedur i edukacji pozwala efektywnie zminimalizować ryzyka związane z Shadow AI. Jeżeli organizacja podejdzie do tego odpowiedzialnie, AI może być ogromnym wsparciem, ale bez nadzoru staje się jednym z największych zagrożeń współczesnego środowiska pracy.

Wiele wskazuje na to, że shadow AI to zjawisko, które będzie narastać wraz z dostępnością i łatwością obsługi narzędzi sztucznej inteligencji. Zamiast je pomijać, warto je zgłębić i kontrolować. Przedsiębiorstwa, które się tego nauczą, zyskają nie tylko większą produktywność lub przewagę konkurencyjną na rynku, ale przede wszystkim bezpieczeństwo.

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *