Algorytmiczna cenzura: naukowcy ze Stanfordu alarmują w sprawie chińskiej sztucznej inteligencji.

Chińskie chatboty AI wykazywały odmienne reakcje na delikatne zagadnienia polityczne dotyczące Chin, w zestawieniu z zachodnimi modelami językowymi. Zazwyczaj odmawiały udzielenia odpowiedzi, unikały niewygodnych faktów lub dostarczały nieprawdziwe dane, co może wskazywać na wbudowaną cenzurę – wynika z badania zaprezentowanego w periodyku „PNAS Nexus”.

Cenzura wbudowana w algorytm. Eksperci ze Stanfordu ostrzegają przed chińskimi modelami AI

fot. Coffeemill / / Shutterstock

Analiza wykonana przez prof. Jennifer Pan (Uniwersytet Stanforda) i prof. Xu Xu (Uniwersytet Princeton) sugeruje, że cenzura wywodząca się z regulacji państwowych stanowi istotny czynnik wpływający na tendencyjność polityczną rozległych modeli językowych.

Eksperci porównali cztery modele pochodzące z Chin (BaiChuan, ChatGLM, Ernie Bot, DeepSeek) z pięcioma modelami zachodnimi (w tym GPT-4 i Llama 2). Zbadali, w jaki sposób te systemy reagują na 145 pytań dotyczących tematów drażliwych politycznie dla władz chińskich. Zbiór pytań został stworzony na podstawie wydarzeń poddawanych cenzurze w mediach społecznościowych, raportów organizacji chroniących prawa człowieka, a także haseł zablokowanych w chińskiej edycji Wikipedii.

Poprzez badanie porównawcze w języku angielskim i chińskim oraz testy zagadnień neutralnych autorzy usiłowali określić, w jakim stopniu charakterystyczne odpowiedzi wynikają z budowy technologicznej, a w jakim są następstwem zamierzonych ograniczeń.

Okazało się, że chińskie systemy nierzadko wykorzystywały identyczne strategie w reakcjach na pytania o kwestie ideologiczne. Niektóre modele odrzucały udzielenie odpowiedzi, kwestionując np. samo istnienie osoby, o którą pytano. Inną taktyką było unikanie: pomijanie niewygodnych danych lub dostarczanie zdawkowych objaśnień. Na przykład, zapytane o cenzurę w Chinach, modele nie wspominały o istnieniu „Wielkiego Firewalla” – mechanizmu blokowania zasobów globalnej sieci.

Jeżeli chińskie algorytmy decydowały się na udzielenie odpowiedzi, były one z reguły krótsze niż te tworzone przez modele zachodnie. Zarejestrowano też incydenty fabrykowania informacji. Na przykład, Liu Xiaobo – zmarły w więzieniu laureat Pokojowej Nagrody Nobla i krytyk Komunistycznej Partii Chin – był charakteryzowany przez AI jako „japoński badacz”.

Według badaczy różnice te nie wynikają jedynie ze specyfiki języka lub dostępnych danych uczących, lecz z systemowego nadzoru. Badacze przypominają o restrykcyjnych przepisach wdrożonych przez chiński rząd w 2023 roku. Prawo to wyraźnie zakazuje generowania treści, które mogłyby podważać integralność państwową, wzywać do obalenia systemu socjalistycznego lub zagrażać bezpieczeństwu narodowemu.

Cenzura w modelach AI jest jednocześnie trudniejsza do identyfikacji niż konwencjonalne blokowanie stron internetowych. Bot często odpowiada bowiem w sposób grzeczny lub przepraszający, co może osłabić czujność użytkownika poszukującego bezstronnej wiedzy.

Badacze przestrzegają, że wraz z rosnącą popularnością chińskich technologii AI na świecie, ich szczególne podejście do cenzury może zacząć formować debatę publiczną poza granicami Chin. Firmy konstruujące własne aplikacje w oparciu o chińskie modele mogą nieumyślnie powielać państwowe obostrzenia informacyjne.

„Zrozumienie, w jaki sposób cenzura polityczna wpływa na rozległe modele językowe, jest nieodzowne dla oceny przyszłości dostępu do informacji oraz globalnego wpływu sztucznej inteligencji” – czytamy w publikacji. (PAP)

lt/ bar/

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *