Zmierzch trendu, świt normy? Entuzjazm dla AI opadnie w 2026?

Wirtualna minister, Grokipedia i rodzime systemy językowe AI to tylko niektóre z narzędzi wykorzystujących inteligencję maszynową, które pojawiły się w 2025 roku. Szymon Łukasik, profesor AGH oraz specjalista NASK przewiduje, że ekscytacja sztuczną inteligencją zmaleje w 2026 r.

Koniec mody, początek standardu? „Hype” na sztuczną inteligencję osłabnie w 2026 roku

fot. pinkeyes / / Shutterstock

Z danych Eurostatu, które zaprezentowano w grudniu bieżącego roku, wynika, że w 2025 r. w krajach Unii Europejskiej 32,7% osób w wieku od 16 do 74 lat używało narzędzi AI do generowania treści. W naszym kraju w ciągu ostatnich trzech miesięcy z AI korzystało 22,7% respondentów.

Gwałtowny wzrost dezinformacji

Szymon Łukasik, profesor AGH i Dyrektor Centrum Badań nad Bezpieczeństwem AI w NASK, podczas rozmowy z Polską Agencją Prasową zauważył, że w roku 2025 zwiększyła się ilość niebezpiecznych i wprowadzających w błąd treści tworzonych za pomocą sztucznej inteligencji.

Według naszych szacunków, co pół roku obserwowaliśmy podwojenie się liczby tego typu materiałów, co stanowi znaczący przyrost – podkreślił specjalista.

Dodał też, że szkodliwe treści wygenerowane przez AI są coraz lepiej dopracowane i dostosowane do specyfiki polszczyzny. Profesor Łukasik przypomniał, że jeszcze kilka lat temu treści stworzone przez sztuczną inteligencję były prostymi kompilacjami nagranych wypowiedzi osób publicznych, w których dźwięk nie był zsynchronizowany z ruchami ust. – Obecnie są to już profesjonalne materiały, często zawierające wypowiedzi, których ton i brzmienie wiernie oddają głos danej osoby – zaznaczył.

Niemniej jednak, zdaniem eksperta, Polacy postrzegają AI bardziej jako szansę niż zagrożenie. Perspektywy zastosowań AI, takie jak szacowanie ryzyka zachorowania na nowotwory lub roboty asystujące dla osób niesamodzielnych, są – w opinii eksperta – wyjątkowo pozytywnie odbierane przez Polaków.

Specjalista podkreślił, że w 2025 r. Polacy najczęściej wykorzystywali sztuczną inteligencję do tworzenia i edycji tekstów, pomocy w pracy biurowej i administracyjnej, ale również w edukacji, obsłudze klienta czy marketingu.

PLLuM, Bielik i chatbot w mObywatelu

W 2025 r. Polska także wniosła wkład w rozwój sztucznej inteligencji. W lutym udostępniono model językowy AI o nazwie PLLuM (Polish Large Language Model), którego celem jest wspieranie administracji, biznesu i nauki.

– Na zakończenie roku otrzymamy chatbota opartego o model językowy PLLuM w mObywatelu oraz model Bielik w aplikacji InPostu. Są to aplikacje, z których korzystają miliony użytkowników – zaznaczył profesor Łukasik. We wtorek wiceminister ds. cyfryzacji Dariusz Standerski poinformował, że chat bot w mObywatelu będzie dostępny od 31 grudnia.

Co dalej z „bałtycką gigafabryką”? 

Z kolei na początku lipca bieżącego roku Komisja Europejska (KE) zaakceptowała wstępny wniosek Ministerstwa Cyfryzacji dotyczący utworzenia Baltic AI GigaFactory. W projekcie Polska odgrywała kluczową rolę jako lider, współpracując z Litwą, Łotwą, Estonią i Czechami. Zamierzeniem było stworzenie bałtyckiej gigafabryki, która miałaby wspierać rozwój, trenowanie i wdrażanie bardzo dużych modeli AI. Później Estonia i Łotwa wycofały się z projektu, a – jak powiedział PAP wiceminister cyfryzacji Dariusz Standerski – KE miała zmienić swoje podejście i ogłosić europejski przetarg na gigafabryki AI, w którym mogłyby wziąć udział również firmy spoza UE. Pierwotnie zasady miały przewidywać konkurs, w którym uczestniczyłyby państwa członkowskie wraz z konsorcjami, czyli zainteresowanymi podmiotami biznesowymi i naukowymi.

Standerski podkreślił, że Polska nie rezygnuje z planów dotyczących bałtyckiej gigafabryki. – Będziemy nadal wspierać nie tylko konsorcjum bałtyckiej gigafabryki, ale także wszystkie firmy, które zechcą przystąpić do europejskiego przetargu. Mam umówione spotkanie z przedsiębiorcami z konsorcjum oraz z przedstawicielami lokalizacji w Polsce, które zgłosiły się do projektu. Biuro projektowe gigafabryki działające przy Ministerstwie Cyfryzacji kontynuuje swoją działalność. Nie zamierzamy niczego kończyć i będziemy uczestniczyć w tym procesie – zapewnił wiceminister.

Wirtualna ministra „w ciąży” i kontrowersyjny Grok

W roku 2025 sztuczna inteligencja wywołała także znaczące zmiany w Albanii. We wrześniu tego roku po raz pierwszy zadebiutowała na stanowisku ministerialnym. Albania stała się pierwszym państwem na świecie, które powołało wirtualną ministrę stworzoną przez AI. Delia — bo tak ją nazwano — odpowiada za nadzór nad wszystkimi zamówieniami publicznymi.

W październiku premier Albanii Edi Rama ogłosił, że minister AI – Delia „jest w ciąży i spodziewa się 83 dzieci”. Wyjaśnił, że będą to asystenci AI dla każdego z członków parlamentu, którzy będą m.in. brać udział w sesjach parlamentarnych, prowadzić dokumentację i sugerować, jak reagować na różne sytuacje.

Sztuczna inteligencja przyczyniła się również do budzących wątpliwości działań w sieci. W lipcu Grok, czyli model sztucznej inteligencji firmy xAI, tworzył obraźliwe i dezinformujące wpisy na platformie X (wcześniej Twitter). Wpisy te pojawiały się w odpowiedzi na pytania użytkowników i dotyczyły m.in. premiera Donalda Tuska oraz Jana Pawła II.

Natomiast w październiku miliarder Elon Musk ogłosił powstanie Grokipedii, czyli internetowej encyklopedii opartej na sztucznej inteligencji.

Zakazane systemy, koniec hype’u”. Czas na etykę i małe modele

Rok 2025 obfitował również w zmiany dotyczące regulacji AI. Mimo że Akt o sztucznej inteligencji (AI Act) wszedł w życie 1 sierpnia 2024 r., to w lutym 2025 r. zaczęły obowiązywać m.in. przepisy dotyczące systemów AI, które są zabronione w UE. Oznacza to, że od tego czasu w Unii Europejskiej niedopuszczalne są systemy AI wykorzystujące manipulację poznawczo-behawioralną, systemy oceny społecznej oraz predykcyjne działania policyjne oparte na profilowaniu.

Profesor Łukasik wskazał także kilka możliwych trendów dotyczących tego, jak sztuczna inteligencja może być postrzegana przez społeczeństwo w 2026 r.

Pierwszy z nich – jak stwierdził – sprawi, że sztuczna inteligencja przestanie być czymś nowym i stanie się powszechnym narzędziem, które pomaga internautom w codziennych czynnościach. – Ekscytacja sztuczną inteligencją nieco zmaleje – podkreślił.

Według eksperta, większą uwagę zaczniemy poświęcać kwestiom etyki i praw autorskich. Zaznaczył, że wzrośnie zapotrzebowanie na regulacje, które będą zobowiązywać platformy lub użytkowników do oznaczania treści stworzonych przez sztuczną inteligencję, zwłaszcza w kontekście rozwoju materiałów audio-wideo.

Z pewnością nastąpi nacisk na małe modele, które są w stanie szybko rozwiązywać określone problemy bez przekazywania danych zewnętrznym dostawcom – zaznaczył, wymieniając jako przykłady polskie modele PLLuM i Bielik.

Dyrektor Centrum Badań nad Bezpieczeństwem Sztucznej Inteligencji w NASK podkreślił, że dla samodzielnej weryfikacji dezinformacji kluczowe jest rozwijanie umiejętności krytycznego myślenia, sprawdzania źródeł i analizowania pochodzenia informacji. Dodał, że materiały dezinformacyjne w polskiej przestrzeni internetowej charakteryzują się większą ilością błędów językowych.

– Treści dezinformujące wygenerowane przy użyciu sztucznej inteligencji często zawierają więcej błędów niż autentyczne treści, które zazwyczaj obserwujemy w internecie – wyjaśnił ekspert. Zaznaczył, że z takimi mechanizmami można się spotkać np. w reklamach oraz w przekazach społeczno-politycznych.

Weronika Moszpańska (PAP)

wm/ agg/ bst/ amac/

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *