Elon Musk, twórca SPaceX, i brytyjski premier Rishi Sunak rozmawiali o egzystencjalnym zagrożeniu ze strony AI dla ludzkości. Zgodzili się, że potrzebny jest „sędzia”, który będzie nadzorował superkomputery przyszłości
Michał Duszczyk
Pierwszy krok do regulacji sektora AI został wykonany – najwięksi gracze spotkali się w ubiegłym tygodniu na szczycie zorganizowanym przez brytyjskiego premiera Rishiego Sunaka, aby, choć reprezentują różne interesy i wizje wykorzystania tej technologii, osiągnąć porozumienie w sprawie ujarzmienia niekontrolowanego rozwoju sztucznej inteligencji. Ten, jak zgodzili się uczestnicy, mógłby bowiem zagrozić ludzkości. Deklaracja, zawarta przez kraje członkowskie grupy G7, w tym Stany Zjednoczone, a także Unię Europejską czy Chiny, mówi o kooperacji i konieczności nadzoru nad zaawansowanymi algorytmami w celu minimalizowania zagrożeń. A te są ogromne. Jak podkreślał premier Sunak, „ryzyko jest egzystencjalne”.
Już zdecydowano, że w przyszłym roku odbędzie się kolejny szczyt bezpieczeństwa AI – w Rzymie. Zwolennicy puszczenia inteligentnych botów na żywioł, wśród których jest wielu naukowców z branży, mogą być zawiedzeni. Tym bardziej że przyszłoroczna gospodyni szczytu Giorgia Meloni z dystansem podchodzi do tej technologii. – Stoimy w obliczu nowej granicy postępu, która po raz pierwszy poważnie grozi podważeniem samej zasady centralnego miejsca człowieczeństwa – podkreśliła premier Włoch.
Polska poza szczytem
Kluczowe dla przyszłości AI spotkanie w Bletchley Park zgromadziło przedstawicieli największych gospodarek i potęg technologicznych. Deklarację podpisało 28 państw. Niestety, na tak istotnym wydarzeniu zabrakło reprezentacji naszego kraju. Choć byli Włosi, Hiszpanie, Holendrzy czy przedstawiciele Turcji, Ukrainy, Brazylii, a nawet Filipin, Kenii oraz Rwandy.
W Ministerstwie Cyfryzacji (MC) usłyszeliśmy, że to UE reprezentowała stanowisko Polski i pozostałych krajów Wspólnoty. – Polska jest jednym z krajów Unii nadających ton legislacji w dziedzinie sztucznej inteligencji. Nasze stanowisko popiera większość krajów w UE i jest odzwierciedlone w ogólnym podejściu organów unijnych w projektowanych dokumentach dotyczących AI, które zasadniczo opierają się na szerokim konsensusie wewnątrz Wspólnoty – przekonują w biurze prasowym MC. I dodają, że legislacja dotycząca sztucznej inteligencji będzie niedługo stanowiła zharmonizowaną część prawa wspólnotowego.
– I w tym przypadku UE mówi jednym głosem – zaznaczają w resorcie cyfryzacji.
Faktycznie, Bruksela jest w trakcie wypracowywania ostatecznego kształtu tzw. AI Act. Ramy prawne dla botów szykuje również Kanada (projekt AIDA). Z kolei prezydent USA wydał już rozporządzenie ws. bezpieczeństwa AI, które obliguje firmy pracujące nad takimi rozwiązaniami do udostępniania wyników testów rządowi Stanów Zjednoczonych, a przy tym zapowiada utworzenie specjalnego organu (National Institute of Standard and Technology), który określi reguły w zakresie wdrażania botów (ma to zapobiec powstawaniu tzw. dyskryminujących algorytmów i sprzyjać „etycznemu” ich wykorzystaniu).
Ale niespodziewanie być może to Chiny pokażą światu, jak należy zapanować nad botami. Grupa tamtejszych naukowców, w skład której wchodzi m.in. Andrew Yao, jeden z najwybitniejszych chińskich informatyków, wezwała do utworzenia międzynarodowego organu regulacyjnego AI, a także do obowiązkowej rejestracji i audytu zaawansowanych systemów tego typu. Postulują ponadto opracowanie procedury natychmiastowego „wyłączenia”. Według nich firmy i instytucje badające i rozwijające sztuczną inteligencję powinny ponadto zostać zobowiązane do przeznaczania 30 proc. swojego budżetu właśnie na prace nad zapewnieniem bezpieczeństwa takiej technologii.
Algorytm nas ochroni?
Jednak nie wszyscy sprzyjają okiełznaniu AI. Wiele firm, ustami swoich badaczy i naukowców, daje wyraz temu, iż nadmierna regulacja zahamuje technologiczny rozwój. Andrew Ng, szef jednej z wiodących firm w tej branży – DeepLearning.AI (wcześniej zakładał Google Brain i budował dział AI w chińskim koncernie Baidu), mówi wprost, że obawia się o przyszłość sztucznej inteligencji. Jego zdaniem przesadne ryzyko, jak wyginięcie ludzkości, „pozwoli lobbystom na wprowadzenie w życie dławiących tę technologię przepisów”. Ostrzega, że to może „zmiażdżyć innowacje”. Wielu ekspertów podkreśla bowiem, że ograniczanie algorytmów wcale nie chroni ludzkości, ale sprawia, że hamuje się technologie, które mogą ją wręcz ratować przed licznymi zagrożeniami.
Geoffrey Hinton, kanadyjsko-brytyjski informatyk, nazywany „ojcem chrzestnym AI” (przez wiele lat pracował dla Google’a), szacuje, iż szanse, że nieuregulowana sztuczna inteligencja zwróci się przeciwko człowiekowi i doprowadzi do jego wyginięcia, wynosi ledwie 0,1. – To znacznie mniej niż większość innych potencjalnych przyczyn wyginięcia człowieka, w tym katastrof naturalnych – wtóruje mu na platformie X (d. Twitter) inny guru tego sektora, Yann LeCun (Francuz jest zdobywcą nagrody Turinga i szefem działu AI w koncernie Meta). Przekonuje on, że strach przed AI to histeria, a wskazywane przez Rishiego Sunaka zagrożenia to urojenia. Stanowisko LeCuna ostro skrytykował już ruch PauseAI (zwolennicy radykalnego ograniczenia prac nad tą technologią).
Edi Pyrek
współzałożyciel Global Artificial Intelligence Alliance (GAIA)
To, co się dzieje w ciągu ostatnich tygodni wokół sztucznej inteligencji, świadczy o tym, że decydenci coraz lepiej zdają sobie sprawę z tego, że stoimy przed największym wyzwaniem w historii naszego gatunku. UE ustaliła AI Act, prezydent Joe Biden ostatnio ogłosił konieczność tworzenia AI, której możemy zaufać, i nawet Chińczycy wydają się rozumieć, że niekontrolowane tworzenie sztucznej inteligencji może być bardziej niebezpieczne niż broń jądrowa w rękach grupki terrorystów. Kiedy kilka lat temu GAIA zaczęła mówić o konieczności pracy nad etyczną AI, opartą na „compassion” (współodczuwająca sztuczna inteligencja), byliśmy traktowani jak grupka panikarzy próbujących nadać kilku algorytmom opartym na maszynowym uczeniu prawie ludzką świadomość. Dziś coraz lepiej rozumiemy, że musimy potraktować AI jako powstający obok nas oddzielny byt, który puszczony bez kontroli może zniszczyć nasz świat. Takie działania jak podpisanie deklaracji Bletchley jest światłem w tunelu – może stać się tym, czym była deklaracja Narodów Zjednoczonych w 1942 r. Wtedy podpisało ją 26 krajów, deklarację Bletchley sygnowało 28. Może mamy jeszcze szanse.