Wirtualna minister, Grokipedia i rodzime systemy językowe AI to tylko niektóre z narzędzi wykorzystujących inteligencję maszynową, które pojawiły się w 2025 roku. Szymon Łukasik, profesor AGH oraz specjalista NASK przewiduje, że ekscytacja sztuczną inteligencją zmaleje w 2026 r.

Z danych Eurostatu, które zaprezentowano w grudniu bieżącego roku, wynika, że w 2025 r. w krajach Unii Europejskiej 32,7% osób w wieku od 16 do 74 lat używało narzędzi AI do generowania treści. W naszym kraju w ciągu ostatnich trzech miesięcy z AI korzystało 22,7% respondentów.
Gwałtowny wzrost dezinformacji
Szymon Łukasik, profesor AGH i Dyrektor Centrum Badań nad Bezpieczeństwem AI w NASK, podczas rozmowy z Polską Agencją Prasową zauważył, że w roku 2025 zwiększyła się ilość niebezpiecznych i wprowadzających w błąd treści tworzonych za pomocą sztucznej inteligencji.
Według naszych szacunków, co pół roku obserwowaliśmy podwojenie się liczby tego typu materiałów, co stanowi znaczący przyrost – podkreślił specjalista.
Dodał też, że szkodliwe treści wygenerowane przez AI są coraz lepiej dopracowane i dostosowane do specyfiki polszczyzny. Profesor Łukasik przypomniał, że jeszcze kilka lat temu treści stworzone przez sztuczną inteligencję były prostymi kompilacjami nagranych wypowiedzi osób publicznych, w których dźwięk nie był zsynchronizowany z ruchami ust. – Obecnie są to już profesjonalne materiały, często zawierające wypowiedzi, których ton i brzmienie wiernie oddają głos danej osoby – zaznaczył.
Niemniej jednak, zdaniem eksperta, Polacy postrzegają AI bardziej jako szansę niż zagrożenie. Perspektywy zastosowań AI, takie jak szacowanie ryzyka zachorowania na nowotwory lub roboty asystujące dla osób niesamodzielnych, są – w opinii eksperta – wyjątkowo pozytywnie odbierane przez Polaków.
Specjalista podkreślił, że w 2025 r. Polacy najczęściej wykorzystywali sztuczną inteligencję do tworzenia i edycji tekstów, pomocy w pracy biurowej i administracyjnej, ale również w edukacji, obsłudze klienta czy marketingu.
PLLuM, Bielik i chatbot w mObywatelu
W 2025 r. Polska także wniosła wkład w rozwój sztucznej inteligencji. W lutym udostępniono model językowy AI o nazwie PLLuM (Polish Large Language Model), którego celem jest wspieranie administracji, biznesu i nauki.
– Na zakończenie roku otrzymamy chatbota opartego o model językowy PLLuM w mObywatelu oraz model Bielik w aplikacji InPostu. Są to aplikacje, z których korzystają miliony użytkowników – zaznaczył profesor Łukasik. We wtorek wiceminister ds. cyfryzacji Dariusz Standerski poinformował, że chat bot w mObywatelu będzie dostępny od 31 grudnia.
Co dalej z „bałtycką gigafabryką”?
Z kolei na początku lipca bieżącego roku Komisja Europejska (KE) zaakceptowała wstępny wniosek Ministerstwa Cyfryzacji dotyczący utworzenia Baltic AI GigaFactory. W projekcie Polska odgrywała kluczową rolę jako lider, współpracując z Litwą, Łotwą, Estonią i Czechami. Zamierzeniem było stworzenie bałtyckiej gigafabryki, która miałaby wspierać rozwój, trenowanie i wdrażanie bardzo dużych modeli AI. Później Estonia i Łotwa wycofały się z projektu, a – jak powiedział PAP wiceminister cyfryzacji Dariusz Standerski – KE miała zmienić swoje podejście i ogłosić europejski przetarg na gigafabryki AI, w którym mogłyby wziąć udział również firmy spoza UE. Pierwotnie zasady miały przewidywać konkurs, w którym uczestniczyłyby państwa członkowskie wraz z konsorcjami, czyli zainteresowanymi podmiotami biznesowymi i naukowymi.
Standerski podkreślił, że Polska nie rezygnuje z planów dotyczących bałtyckiej gigafabryki. – Będziemy nadal wspierać nie tylko konsorcjum bałtyckiej gigafabryki, ale także wszystkie firmy, które zechcą przystąpić do europejskiego przetargu. Mam umówione spotkanie z przedsiębiorcami z konsorcjum oraz z przedstawicielami lokalizacji w Polsce, które zgłosiły się do projektu. Biuro projektowe gigafabryki działające przy Ministerstwie Cyfryzacji kontynuuje swoją działalność. Nie zamierzamy niczego kończyć i będziemy uczestniczyć w tym procesie – zapewnił wiceminister.
Wirtualna ministra „w ciąży” i kontrowersyjny Grok
W roku 2025 sztuczna inteligencja wywołała także znaczące zmiany w Albanii. We wrześniu tego roku po raz pierwszy zadebiutowała na stanowisku ministerialnym. Albania stała się pierwszym państwem na świecie, które powołało wirtualną ministrę stworzoną przez AI. Delia — bo tak ją nazwano — odpowiada za nadzór nad wszystkimi zamówieniami publicznymi.
W październiku premier Albanii Edi Rama ogłosił, że minister AI – Delia „jest w ciąży i spodziewa się 83 dzieci”. Wyjaśnił, że będą to asystenci AI dla każdego z członków parlamentu, którzy będą m.in. brać udział w sesjach parlamentarnych, prowadzić dokumentację i sugerować, jak reagować na różne sytuacje.
Sztuczna inteligencja przyczyniła się również do budzących wątpliwości działań w sieci. W lipcu Grok, czyli model sztucznej inteligencji firmy xAI, tworzył obraźliwe i dezinformujące wpisy na platformie X (wcześniej Twitter). Wpisy te pojawiały się w odpowiedzi na pytania użytkowników i dotyczyły m.in. premiera Donalda Tuska oraz Jana Pawła II.
Natomiast w październiku miliarder Elon Musk ogłosił powstanie Grokipedii, czyli internetowej encyklopedii opartej na sztucznej inteligencji.
Zakazane systemy, koniec „hype’u”. Czas na etykę i małe modele
Rok 2025 obfitował również w zmiany dotyczące regulacji AI. Mimo że Akt o sztucznej inteligencji (AI Act) wszedł w życie 1 sierpnia 2024 r., to w lutym 2025 r. zaczęły obowiązywać m.in. przepisy dotyczące systemów AI, które są zabronione w UE. Oznacza to, że od tego czasu w Unii Europejskiej niedopuszczalne są systemy AI wykorzystujące manipulację poznawczo-behawioralną, systemy oceny społecznej oraz predykcyjne działania policyjne oparte na profilowaniu.
Profesor Łukasik wskazał także kilka możliwych trendów dotyczących tego, jak sztuczna inteligencja może być postrzegana przez społeczeństwo w 2026 r.
Pierwszy z nich – jak stwierdził – sprawi, że sztuczna inteligencja przestanie być czymś nowym i stanie się powszechnym narzędziem, które pomaga internautom w codziennych czynnościach. – Ekscytacja sztuczną inteligencją nieco zmaleje – podkreślił.
Według eksperta, większą uwagę zaczniemy poświęcać kwestiom etyki i praw autorskich. Zaznaczył, że wzrośnie zapotrzebowanie na regulacje, które będą zobowiązywać platformy lub użytkowników do oznaczania treści stworzonych przez sztuczną inteligencję, zwłaszcza w kontekście rozwoju materiałów audio-wideo.
Z pewnością nastąpi nacisk na małe modele, które są w stanie szybko rozwiązywać określone problemy bez przekazywania danych zewnętrznym dostawcom – zaznaczył, wymieniając jako przykłady polskie modele PLLuM i Bielik.
Dyrektor Centrum Badań nad Bezpieczeństwem Sztucznej Inteligencji w NASK podkreślił, że dla samodzielnej weryfikacji dezinformacji kluczowe jest rozwijanie umiejętności krytycznego myślenia, sprawdzania źródeł i analizowania pochodzenia informacji. Dodał, że materiały dezinformacyjne w polskiej przestrzeni internetowej charakteryzują się większą ilością błędów językowych.
– Treści dezinformujące wygenerowane przy użyciu sztucznej inteligencji często zawierają więcej błędów niż autentyczne treści, które zazwyczaj obserwujemy w internecie – wyjaśnił ekspert. Zaznaczył, że z takimi mechanizmami można się spotkać np. w reklamach oraz w przekazach społeczno-politycznych.
Weronika Moszpańska (PAP)
wm/ agg/ bst/ amac/
