X usunie możliwość monetyzacji publikacji nieoznaczonych filmów z udziałem sztucznej inteligencji przedstawiających konflikty zbrojne

X usunie możliwość monetyzacji publikacji nieoznaczonych filmów z udziałem sztucznej inteligencji przedstawiających konflikty zbrojne 2

Portal społecznościowy X tymczasowo wyłączy możliwość monetyzacji dla użytkowników publikujących wygenerowane filmy przedstawiające konflikty zbrojne bez odpowiedniego oznaczenia, ogłosił Nikita Beer, dyrektor ds. algorytmicznego przesyłania danych na platformie.

Osoby naruszające zasady zostaną wykluczone z programu podziału zysków na 90 dni. Powtarzające się naruszenia będą skutkować trwałym wykluczeniem z systemu monetyzacji. Jednocześnie platforma nie planuje usuwania publikacji ani samych kont.

Beer podkreślił, że w czasie wojny dostęp do rzetelnych informacji ma kluczowe znaczenie, a współczesne sieci neuronowe ułatwiają wprowadzanie odbiorców w błąd.

Istnieją dwa sposoby wykrywania fałszywych sieci społecznościowych:

  • korzystając z systemu weryfikacji faktów opartego na crowdsourcingu Community Notes;
  • za pomocą algorytmów sztucznej inteligencji wykrywających treści na podstawie metadanych.

Aktualizacja zasad nastąpiła w związku z masą filmów na temat niedawnych konfliktów geopolitycznych.

Problem podróbek istniał na platformie jeszcze przed masowym upowszechnieniem się sieci neuronowych – użytkownicy regularnie podawali nagrania z gry wideo Arma 3 za prawdziwe walki. Jednak dostępne generatory sztucznej inteligencji znacznie ułatwiły tworzenie i rozpowszechnianie dezinformacji.

Jednocześnie system wypłat X nagradza finansowo twórców treści za wysokie zaangażowanie. To zachęca posiadaczy kont premium do publikowania viralowych deepfake'ów, niezależnie od faktów, w celu szybkiego zarobku.

Rozwiązanie X w praktyce przerzuca zadanie wykrywania podróbek na społeczność użytkowników, a karą za to jest tymczasowa utrata przychodów, a nie usunięcie samych dezinformacji z platformy.

Przypomnijmy, że w lutym okazało się, że armia amerykańska wykorzystała Claude'a z Anthropic w operacji pojmania prezydenta Wenezueli Nicolasa Maduro.

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *