AI poza wiedzą lidera: Ukryta SI nabiera mocy, a klienci są w niebezpieczeństwie.

ChatGPT, Gemini, Copilot – to instrumenty AI, które są standardem w firmach. Jednak, gdy pracownicy używają ich „ukradkiem”, pojawia się shadow AI – niedostrzegalny dla przedsiębiorstwa mechanizm, który może przekazać tajne dane wprost do rąk cyberprzestępców. Przeanalizowaliśmy, jakie niebezpieczeństwa wiążą się z tym problemem i jak unikać ryzykownych sytuacji.

Sztuczna Inteligencja Za Plecami Szefa Shadow Ai Ronie W Si I Zagraa Klientom 1273454, NEWSFIN

fot. DC Studio / / Shutterstock

Sztuczna inteligencja na dobre zadomowiła się w normalnej pracy wielu przedsiębiorstw. Instrumenty bazujące na sztucznej inteligencji pomagają tworzyć teksty, analizować dane, kreować obrazy czy optymalizować komunikację. Jednak wraz z ich wzrastającą powszechnością pojawia się nowy fenomen – shadow AI, czyli używanie tej technologii poza formalnymi kanałami i bez zgody firmy.

Co to jestshadow AI?

Określenie shadow AI nawiązuje do idei shadow IT, które od dawna opisuje nieupoważnione korzystanie z technologii informatycznych w miejscu pracy. Jednak w przypadku AI chodzi o sytuacje, w których pracownicy na własną rękę posługują się narzędziami takimi jak ChatGPT, Copilot, Gemini czy Midjourney, aby prędzej zrealizować zadanie, stworzyć raport, lub przygotować prezentację – nie zawiadamiając o tym swoich przełożonych lub działu IT.

Dzieje się tak najczęściej z dobrych pobudek – chcą zyskać czas, zwiększyć efektywność albo zwyczajnie przetestować, „czy AI podoła”. Kłopot pojawia się wtedy, gdy do ogólnodostępnych modeli trafiają poufne dokumenty lub informacje o klientach.

Poważne ryzyko wycieku informacji

Jak orzeka Matt Ausman, CIO w Zebra Technologies, największym niebezpieczeństwem jest tutaj możliwość ujawnienia na zewnątrz sekretnych danych firmowych.

– Prowadzone w pracy konwersacje wideo i audio, aplikacje do kontaktów wewnątrzzakładowych oraz poczta elektroniczna często zawierają wrażliwe informacje dotyczące firmy, jej pracowników, klientów i kooperantów. Mogą to być dane finansowe, własność intelektualna, informacje dotyczące ładu korporacyjnego i przepisów, a także dane osobowe, które wymagają specjalnej ochrony w zakresie przechowywania, dostępu, komunikacji i usuwania – mówi Bankier.pl Matt Ausman. – Jeśli firma pozwala pracownikom lub podmiotom zewnętrznym używać własnych generatywnych, lub agentowych rozwiązań AI w ramach komunikacji wideo, audio lub tekstowej, oznacza to, że te dane są przechwytywane i zachowywane przez sztuczną inteligencję. Prawdopodobnie są również używane do trenowania modeli AI i ewentualnie do innych celów – w zależności od warunków, jakie użytkownicy zaakceptowali, a których większość nie czyta.

Dwa nieprzyjemne scenariusze

Według eksperta Zebra Technologies, wyciek danych może nastąpić na dwa sposoby:

  • powtórne użycie danych firmy, które może obejmować umowa z dostawcą narzędzia. Przeważnie wynika to z wynegocjowanych ustaleń lub z faktu, że pracownicy korzystają z prywatnych wersji sztucznej inteligencji. Jeśli narzędzie AI jest darmowe, firma, która za nim stoi, musi w jakiś sposób zarabiać – najczęściej właśnie poprzez użycie danych użytkowników,
  • niezamierzone ujawnienie danych przez dostawcę rozwiązania AI, co może nastąpić w wyniku cyberataku czy nieprawidłowych zabezpieczeń systemowych. Korzystając z usług zewnętrznych dostawców narzędzi AI, przedsiębiorstwa powierzają im ochronę swoich danych.

– W raportach internetowych wskazuje się, że od 13 proc. do nawet 45 proc. danych wprowadzanych do narzędzi generatywnej AI potencjalnie ujawniało dane klientów lub inne informacje poufne, stwarzając niebezpieczeństwo dla bezpieczeństwa lub zgodności – twierdzi Matt Ausman. – Znaczy to, że poufne dane wydostają się poza system zarządzania i bezpieczeństwa firmy, a organizacja traci nad nimi kontrolę i wgląd. Może to również stanowić naruszenie krajowych lub regionalnych przepisów o ochronie danych oraz z pewnością podważać zaufanie pracowników, partnerów i klientów.

Wrota do nowych form oszustw

Według Matta Ausmana używanie osobistych narzędzi AI oznacza także, że wyciekłe dane mogą zostać użyte przez cyberprzestępców do tworzenia bardziej rozwiniętych oszustw typu deep fake (audio i wideo), phishingu lub smishingu.

– Takie oszustwa mogą używać prywatnych danych firmy lub pracowników, co zwiększa ich wiarygodność i efektywność – uważa ekspert. – Pojawiały się także przypadki, w których narzędzia AI generowały poufne dane. Istnieje ryzyko, że użytkownicy sztucznej inteligencji w dowolnym miejscu na świecie, wpisując zapytania do modelu generatywnego, mogą otrzymać w odpowiedzi poufne informacje, które model przyswoił w procesie uczenia z innych źródeł.

AI może wymknąć się spod kontroli

Również zdaniem Przemysława Wójcika, prezesa AMP SA, shadow AI to coraz poważniejsze wyzwanie dla organizacji, ponieważ pracownicy bardzo często korzystają z narzędzi sztucznej inteligencji poza kontrolą działu bezpieczeństwa czy IT.

– Może to prowadzić do nieświadomego ujawnienia danych osobowych, poufnych informacji biznesowych lub konfiguracji systemów, co stanowi realne zagrożenie dla bezpieczeństwa – mówi Bankier.pl Przemysław Wójcik. – Narzędzia AI przechowują i przetwarzają wówczas dane w sposób, nad którym organizacja nie ma żadnej kontroli. Dlatego nawet jedno wklejenie fragmentu umowy czy logów serwera może być traktowane jako incydent. Często dane te mogą być przetwarzane na serwerach poza obszarem UE i RODO. Dodatkowym ryzykiem są halucynacje modeli AI, czyli generowanie błędnych informacji, które mogą wprowadzać pracowników w błąd i prowadzić do mylnych decyzji biznesowych.

Złośliwe oprogramowanie umożliwia cyberataki

Tymczasem najnowsze dane dotyczące zagrożenia ze strony AI są wstrząsające. Raport Elastic 2025 Global Threat Report, oparty na ponad miliardzie punktów danych z rzeczywistych środowisk produkcyjnych, pokazuje, że sztuczna inteligencja zrewolucjonizowała przestępczość internetową. Cyberprzestępcy wykorzystują modele AI do masowego generowania złośliwych programów, kradzieży danych poprzez logowanie z różnych przeglądarek i automatyzowania ataków na chmurę.

– W ciągu roku zaobserwowaliśmy 15 proc. wzrost wykorzystania AI do tworzenia złośliwego oprogramowania, które umożliwia cyberataki – twierdzi Przemysław Wójcik. – Najgorzej jest w środowisku Windows. Ataki z wykorzystaniem rozwiązań stworzonych przez sztuczną inteligencję wzrosły tu o ponad 32,5 proc. Są one ostatnio szczególnie obserwowane w sektorach energetycznym, finansowym, ale także zdrowotnym.  W wyniku takich działań cyberprzestępców dochodzi do kradzieży danych osobowych, które później są sprzedawane na czarnym rynku albo blokowana jest infrastruktura IT celem zdobycia okupu.

Koniec z nieautoryzowanym AI w pracy?

Jak twierdzi Matt Ausman, zespoły ds. bezpieczeństwa IT coraz częściej wprowadzają wytyczne i narzędzia mające na celu powstrzymanie zjawiska tzw. „BYOAI” (Bring Your Own AI), w tym blokowanie dostępu do nieautoryzowanych aplikacji AI na komputerach służbowych.

Coraz więcej firm inwestuje też w pewne i bezpieczne narzędzia sztucznej inteligencji, dzięki czemu potrzeba korzystania z prywatnych rozwiązań przez pracowników będzie stopniowo zanikać – uważa ekspert. – Wierzę, że z czasem będziemy obserwować ogólny spadek korzystania z zewnętrznych narzędzi AI. Gdy kilka lat temu rozpoczął się boom na sztuczną inteligencję, firmy dysponowały ograniczonymi możliwościami blokowania dostępu do takich narzędzi – zwłaszcza tych zintegrowanych z aplikacjami korporacyjnymi lub istniejącymi aplikacjami webowymi. To się jednak zmienia, a obecnie dostępne są coraz bardziej zaawansowane mechanizmy kontroli i blokowania.

Pracownicy muszą wiedzieć, jak korzystać ze sztucznej inteligencji

Zdaniem Przemysława Wójcika pracownicy często korzystają z AI, nie rozumiejąc konsekwencji ani zasad bezpiecznego przetwarzania danych.

– Aby skutecznie się zabezpieczyć, organizacja powinna wprowadzić formalną politykę korzystania z AI oraz jasno określić, jakie narzędzia są dozwolone – uważa prezes AMP SA. – Niezbędne jest także wdrożenie bezpiecznych rozwiązań AI. Kolejnym elementem ochrony są mechanizmy techniczne, takie jak web filtering, monitoring zdarzeń w SIEM oraz blokowanie nieautoryzowanych usług AI. Kluczową rolę odgrywa także klasyfikacja informacji oraz minimalizacja danych wysyłanych do systemów zewnętrznych. Tylko połączenie technologii, procedur i edukacji pozwala skutecznie ograniczyć ryzyka związane z Shadow AI. Jeżeli organizacja podejdzie do tego odpowiedzialnie, AI może być ogromnym wsparciem, ale bez kontroli staje się jednym z największych zagrożeń współczesnego środowiska pracy.

Wiele wskazuje na to, że shadow AI to zjawisko, które będzie się nasilać wraz z dostępnością i prostotą użycia narzędzi sztucznej inteligencji. Zamiast je pomijać, warto je zrozumieć i nadzorować. Firmy, które się tego nauczą, uzyskają nie tylko większą wydajność czy przewagę konkurencyjną na rynku, ale przede wszystkim bezpieczeństwo.

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *