Jak generują treść ChatGPT, Gemini, Copilot i Perplexity? „Systemy sztucznej inteligencji popełniają błędy w połowie artykułów z wiadomościami”

Narzędzia bazujące na sztucznej inteligencji, stosowane w procesie tworzenia treści, generują pomyłki w 45% opracowań – taki wniosek płynie z najnowszego badania European Broadcasting Union (Europejskiego Związku Nadawców), w którym artykuły tworzone przez AI oceniali reporterzy.

Jak Pisz Chatgpt Gemini Copilot I Perplexity Narzdzia Ai Robi Bdy W Co Drugim Tekcie Informacyjnym F1b1b6b, NEWSFIN

fot. Mojahid Mottakin / / FORUM

45% treści informacyjnych generowanych przez narzędzia AI posiadało co najmniej jeden kluczowy błąd, taki jak brakujące lub nieprawidłowe źródło informacji (31% przypadków) albo nierzetelne dane i nieaktualne informacje (20% przypadków). Poddawano ocenie także zdolność do rozróżniania faktów od subiektywnych ocen oraz prezentowany kontekst wiadomości.

Określani mianem asystenci AI, z których już dzisiaj korzystają miliony osób do poszukiwania wiadomości, „notorycznie przekłamują treść informacyjną, bez względu na język, dziedzinę i używaną platformę AI” – zaznaczono w raporcie European Broadcasting Union (EBU), europejskiej organizacji zrzeszającej publicznych i niekomercyjnych nadawców. W przygotowaniu raportu, który opublikowano w tym tygodniu, wzięło udział 18 stacji nadawczych z Europy (bez Polski) oraz kanadyjski publiczny nadawca CBC/Radio-Canada i amerykański NPR.

Ponad 3 tys. odpowiedzi wygenerowanych przez „asystentów” zostało ocenionych przez dziennikarzy ze stacji europejskich i północnoamerykańskich. Treści były tworzone przy użyciu ChatGPT (OpenAI), Copilot (Microsoft), Gemini (Google) i Perplexity (założonego przez prywatnych inwestorów z USA). Najsłabiej wypadł Gemini, który generował pomyłki w 76% treści, czyli ponad dwa razy częściej niż konkurenci. Rezultaty zestawiono z badaniem przeprowadzonym w lutym bieżącego roku przez BBC, w którym wyniki były nieco gorsze.

W raporcie EBU cytowany jest wicedyrektor generalny Jean Philip De Tender, który podkreślił, że niedociągnięcia AI nie stanowią pojedynczych incydentów, lecz „systemowe, transgraniczne i wielojęzyczne błędy, naszym zdaniem podważa to zaufanie odbiorców”. „Jeśli ludzie nie wiedzą, komu mogą zaufać, skutkuje to brakiem zaufania do wszystkich, co może zniechęcać do uczestnictwa w życiu demokratycznym” – stwierdził De Tender.

W sprawozdaniu zwrócono uwagę, że już obecnie 7% wszystkich użytkowników sieci korzysta z asystentów AI do przeglądania codziennych doniesień, a wśród osób poniżej 25. roku życia odsetek ten wynosi aż 15% – jak wynika z tegorocznego raportu Reuters Institute.

Autorzy raportu akcentowali, że konieczne jest kontynuowanie cyklicznego, niezależnego monitorowania usług asystentów AI. Przygotowali także narzędzie, które ma ułatwić tworzenie rozwiązań poprawiających wiarygodność działania asystentów AI, i zadeklarowali gotowość do współpracy z firmami oferującymi dostęp do takich botów. Narzędzie opiera się na dwóch kluczowych pytaniach: o cechy dobrej odpowiedzi oraz o identyfikację problemów wymagających poprawy.

Równocześnie EBU zaapelowało do Parlamentu Europejskiego oraz parlamentów krajowych o efektywne stosowanie obowiązujących przepisów dotyczących jakości informacji, usług cyfrowych i pluralizmu mediów.

Z Toronto Anna Lach (PAP)

lach/ zm/

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *