Ponad 92% Polaków zdaje sobie sprawę z wykorzystywania inteligencji sztucznej przez dziennikarzy, ale aż 66% wyraża zaniepokojenie związane z manipulowaniem za pośrednictwem treści kreowanych przez algorytmy i ich wpływu na opinię społeczną – wynika z analizy przeprowadzonej na zamówienie KRRiT pt. „Sztuczna inteligencja w mediach”.

Główne ustalenia z badania przedstawiła przewodnicząca Krajowej Rady Radiofonii i Telewizji dr Agnieszka Glapiak w trakcie konferencji „AI – media w erze algorytmów”.
„Sztuczna inteligencja dawno przestała być jedynie wizją przyszłości, stając się narzędziem, które w coraz większym stopniu wspomaga dziennikarzy, wydawców oraz twórców treści cyfrowych w ich codziennej pracy. Z jednej strony, AI wywołuje ciekawość i nadzieje, z drugiej zaś, obawy i niepewność. W celu poznania opinii Polaków na ten temat, KRRiT zleciła Ogólnopolskiej Grupie Badawczej przeprowadzenie badania dotyczącego percepcji AI w mediach. Wyniki stanowią istotny punkt odniesienia dla dalszych rozważań na temat roli technologii i jej oddziaływania na jakość przekazu” – zaznaczono w przekazanym PAP komunikacie prasowym.
Ankietowani oczekują oznaczania materiałów AI
Jak podkreślono, przytłaczająca większość respondentów (niemal 96%) oczekuje, aby materiały wytworzone przy użyciu AI były wyraźnie identyfikowane.
„Pomimo ostrożnego nastawienia do sztucznej inteligencji, odbiorcy dostrzegają liczne atuty AI. Do najczęściej wymienianych należą: automatyczne przekłady treści na inne języki, oszczędność czasu w procesie tworzenia i zdobywania informacji, jak również ulepszenie strony wizualnej (np. materiałów graficznych). Ponad połowa ankietowanych (51% respondentów) uważa, że użycie AI jako narzędzia wspierającego proces tłumaczenia obcojęzycznych tekstów zwiększa dostęp do wiedzy oraz informacji” – zaakcentowano.
"Halucynacje AI"
Największe obawy, jak zauważono, dotyczą wiarygodności przekazywanych treści. Respondenci zwracają uwagę na niebezpieczeństwo wpływania na opinię społeczną oraz nasilenie zagrożenia związanego z dezinformacją.
„Niepokój budzą również tzw. »halucynacje AI«, czyli przypadki, w których algorytmy generują nieprawdziwe informacje, przedstawiając je jako fakty. Ponad 44% uważa takie sytuacje za zagrożenie” – podkreślono w komunikacie.
„Rezultaty badania zamówionego przez KRRiT bezsprzecznie ukazują, że odbiorcy nie są skłonni do zastąpienia prezenterów w środkach masowego przekazu (telewizji, radiu i internecie) przez sztuczną inteligencję. Ponad 95% ankietowanych jest przeciwnych wykorzystywaniu AI w tej roli. 76% ankietowanych kategorycznie nie akceptuje prezenterów wygenerowanych przez AI w telewizji, a ponad 73% odrzuciło taką możliwość w odniesieniu do radia” – poinformowano.
Ekstremalny sprzeciw, jak podkreślono, wywołuje natomiast wykorzystywanie wizerunku osób zmarłych w audycjach o charakterze publicystycznym. Ponad 93% respondentów odrzuca takie rozwiązania, akceptację wyraża jedynie 2,6%, a 4% nie ma w tej kwestii sprecyzowanego zdania. Częściowa akceptacja została uzyskana jedynie w kontekście treści edukacyjnych i artystycznych – poparcie wyraziło odpowiednio 35% i 25% uczestników badania.
Wnioski i zalecenia
„Rezultaty badania pozwalają na sformułowanie następujących wniosków oraz zaleceń dotyczących wykorzystania AI w mediach: jednoznaczne oznaczanie treści wykreowanych przez AI – tego oczekuje niemal 96% ankietowanych (zalecane jest stosowanie jednolitych komunikatów oraz etykiet) oraz podkreślanie roli człowieka jako ostatecznego weryfikatora jakości (temu przychyla się blisko 60% badanych). A także stopniowe wprowadzanie AI w funkcjach wspierających, takich jak tłumaczenia oraz wizualizacja danych, bez zastępowania ludzkiej kreatywności (51% badanych dostrzega korzyści w tym obszarze) oraz edukacja odbiorców w zakresie rozpoznawania nieprawdziwych treści – szczególnie w kontekście obaw dotyczących manipulacji oraz dezinformacji (prawie 67% respondentów obawia się możliwości sterowania opinią publiczną przez AI)” – dodano w komunikacie.
Badanie zostało zrealizowane na zlecenie KRRiT przez Ogólnopolską Grupę Badawczą (OGB) w dniach 23-27 października 2025 r. metodą CATI. Przebadano reprezentatywną próbę N=1000 pełnoletnich obywateli Polski. Próba została dobrana w sposób kwotowo-losowy, w oparciu o kryteria takie jak: płeć, wiek, wykształcenie, jak również miejsce zamieszkania (dane zgodne z GUS). Analiza obejmowała zagadnienia związane ze świadomością i postawami wobec AI, korzyściami i zagrożeniami, preferencjami dotyczącymi treści i prezenterów, wykorzystywaniem wizerunku osób zmarłych oraz poziomem zaufania do tej technologii. (PAP)
akn/ miś/
