Niedługo po rozpoczęciu inwazji na Ukrainę rosyjskie sieci i kanały rozpowszechniające kremlowską propagandę zalały internet taką ilością treści, że zakłóciły one procesy „uczenia się” popularnych modeli AI. W rezultacie analitycy NewsGuard odkryli, że ponad 33 procent informacji dostarczanych użytkownikom przez te systemy zawiera elementy rosyjskiej dezinformacji.
Rosja stosuje metodę, w której modele AI „uczą się”, zdobywając „wiedzę” z ogromnych zbiorów danych dostępnych online. Przeciążenie tych systemów wieloma publikacjami zawierającymi określone fałsze powoduje, że chatbot przekazuje użytkownikom te błędne informacje, jakby były prawdziwe.
McKenzie Sadeghi i Isis Blachez z platformy NewsGuard, która ocenia wiarygodność źródeł wiadomości, zbadały ten problem w 10 najczęściej używanych chatbotach AI i odkryły, że do 33% treści dostarczanych przez te systemy zawierało elementy rosyjskiej dezinformacji. Badacze podkreślili, że stanowi to poważne zagrożenie dla bezpieczeństwa i integralności procesów demokratycznych w innych krajach.
Badania przeprowadzone przez inną organizację, The American Sunlight Project, która dąży do zwalczania zagrożeń dla amerykańskiej demokracji, wskazują, że wśród różnych kanałów, za pomocą których Kreml „koryguje wiedzę” chatbotów, sieć „Prawda” odgrywa kluczową rolę, ponieważ została utworzona wkrótce po inwazji na Ukrainę. Sieć ta składa się z ponad 150 domen i umożliwia średnio ponad 20 000 artykułów zawierających prokremlowskie narracje, manipulacje i fałszywe wiadomości, aby zinfiltrować internet w ciągu dwóch dni.
Michał Marek z Centrum Badań nad Współczesnym Środowiskiem Bezpieczeństwa w rozmowie z PAP podkreślił, że treści, które można znaleźć w polskojęzycznej wersji portalu „Prawda”, to w przeważającej mierze tłumaczenia materiałów rosyjskich, które pierwotnie zostały opublikowane w takich mediach jak portal Ria Nowosti i innych źródłach w pełni kontrolowanych przez rosyjski rząd. „Są też artykuły wyprodukowane przez Polaków zajmujących się dezinformacją