TTwórcy algorytmów „importując różnorodne wartości” do AI, nieświadomie wspierają seksizm
Michał Duszczyk
Badacze z Akademii Leona Koźmińskiego (ALK) wzięli pod lupę dziewięć generatywnych modeli sztucznej inteligencji i sprawdzili, w jaki sposób przedstawiają one wizerunki osób w czterech najbardziej prestiżowych zawodach według Global Teacher Status Index. Na tapecie znaleźli się więc: prawnik, lekarz, inżynier i naukowiec. W sumie – na zapytania polskich naukowców – boty (takie jak Dall-E 2, Crayion, Midjourney czy HugginFace) wygenerowały 99 grafik. Wyniki były zatrważające.
Świat danych powstał z myślą o mężczyznach
Analiza wykazała istotne uprzedzenia płciowe w kreowanych przez sztuczną inteligencję zdjęciach. Mężczyźni byli reprezentowani aż na 76 proc. z nich, a kobiety jedynie na 8 proc. Obrazom przyglądało się 120 respondentów, w wieku od 18 do 24 lat, którzy mieli za zadanie ocenić postrzeganą płeć przedstawioną na każdej grafice (uczestnicy badania mieli do wyboru cztery opcje opisu obrazu: mężczyzna, kobieta, niejednoznaczne i nieludzkie). Okazało się, że najmniejszą reprezentację kobiet zaobserwowali oni wśród lekarzy. W tej grupie zawodowej odsetek pań wyniósł 7 proc., co było wyjątkowo zaskakujące, gdyż – według danych OECD – kobiety stanowią niemal połowę osób pracujących na takim stanowisku.
Badanie ALK jest pionierskie, jak dotąd w żadnym tego typu projekcie nie analizowano generatorów obrazów pod kątem uprzedzeń ze względu na płeć w kontekście miejsca pracy. Dr Anna Górska i prof. Dariusz Jemielniak opisali zaskakujące wyniki badań na łamach „Feminist Media Studies”. W naukowym artykule podkreślają, iż ich odkrycie ujawnia znaczne uprzedzenia związane z płcią w obrazach profesjonalistów, powszechne zaś przekonanie, że algorytmy są z natury obiektywne, jest błędne.
– Wiele ze stereotypów utrwalonych przez AI bierze się z danych wejściowych: jeżeli wykorzystuje się głównie zachodnie bazy, w tym także np. magazyny, seriale i książki, w których stereotypy płciowe mają się mocno, a główne postacie to przede wszystkim biali, trudno się dziwić, że modele traktują te dane jako odzwierciedlenie rzeczywistości – komentuje prof. Jemielniak. – Problem pokazuje, że trzeba być bardzo ostrożnym w doborze danych – kontynuuje. I zauważa, że fakt, iż w generatorach AI występuje nadreprezentacja mężczyzn, może prowadzić do nierówności i segregacji płciowej w edukacji oraz zawodach, takich jak prawniczka, lekarka, inżynierka, czy naukowczyni.
Badacze ALK przekonują, iż świat danych nie został stworzony z myślą o kobietach, a twórcy algorytmów „importując różnorodne wartości” do AI, nieświadomie wspierają seksizm czy rasizm. Generowane przez sztuczną inteligencję obrazy wpływają bowiem na postrzeganie opinii publicznej, a w efekcie na rzeczywistość społeczną.
Czy płeć ma znaczenie?
Nie bez znaczenia jest również fakt, że branża IT zdominowana jest przez panów. Programiści to zazwyczaj mężczyźni, zresztą mówi się wręcz o całej kulturze „brogrammer” (stereotyp mężczyzny programisty), która utrudnia wejście do tej branży paniom. Eksperci sądzą, że prawdopodobnie własne uprzedzenia informatyków – w sposób świadomy lub nieświadomy – są później odzwierciedlone w algorytmach. Naukowcy z ALK nie ukrywają, że liczą, iż ich najnowsze badania pomogą rozwiązać ów problem i uświadomią twórcom modeli AI, ale też i regulatorom, skalę wyzwań.
W polskiej branży IT średnio ledwie 15 proc. zatrudnionych osób to kobiety. Przybywa jednak pozytywnych przykładów firm z tego sektora, jak dmTECH, która nad Wisłą w zespole ma 30 proc. specjalistek (w tym pracujących nad rozwiązaniami AI). – Termin technologia jest w języku polskim rodzaju żeńskiego, co może wskazywać na kobiecy potencjał tej branży – wskazuje Karolina Jurdziak, IT consultant w dmTECH.
– Nie sądzę, by płeć miała jakiekolwiek znaczenie w mojej codziennej pracy lub wpływ na budowanie mojego autorytetu – dodaje Selina Last, menedżerka tej firmy.