
Książę Harry i Meghan wyrażają obawy względem superinteligencji
Paweł Rożyński
Reklama
„Wzywamy do ustanowienia zakazu dla rozwoju superinteligencji, który nie zostanie uchylony, dopóki nie zaistnieje powszechna zgoda naukowa, że da się to wykonać w sposób bezpieczny i nadzorowany, oraz nie uzyska się mocnego przyzwolenia społecznego” – można przeczytać w liście, pod którym swoje podpisy złożyło m.in. pięciu laureatów Nagrody Nobla, Steve Wozniak (współtwórca Apple), Steve Bannon (ścisły sprzymierzeniec prezydenta Trumpa), Paolo Benanti (doradca papieski), jak również Harry i Meghan, książę i księżna Sussex.
Reklama Reklama
Kto sporządził pismo w temacie superinteligencji?
Autorami listu jest Future of Life Institute (FLI) – organizacja typu non-profit, która w roku 2023 opublikowała inne pismo otwarte, nakłaniające do półrocznej pauzy w rozwoju zaawansowanych systemów AI. Pomimo że list ten był szeroko dyskutowany, nie zrealizował swojego celu.
Aktualnie organizacja skupiła swoją uwagę na superinteligencji, gdyż – jak przekonują przedstawiciele FLI – ta technologia, definiowana jako system zdolny do przewyższenia człowieka we wszelkich przydatnych działaniach, może pojawić się już w okresie roku lub dwóch.
– Czas ucieka – oznajmił w rozmowie z periodykiem „Time” Anthony Aguirre, dyrektor wykonawczy FLI. – Jedyną kwestią, która może zatrzymać firmy AI przed nieograniczonym dążeniem do superinteligencji, jest szeroka świadomość na wszystkich szczeblach społeczeństwa, że tego po prostu nie chcemy.
Reklama Reklama Reklama
W lipcu Mark Zuckerberg, dyrektor naczelny Meta (Facebook) – jednej z czołowych firm rozwijających AI w USA – wspomniał, że rozwój superinteligencji jest „na widnokręgu”.
Dlaczego superinteligencja może zagrażać ludzkości?
Badanie opinii społecznej ogłoszone wraz z listem pokazało, że 64 procent Amerykanów uważa, że superinteligencja nie powinna być rozwijana, zanim nie zostanie dowiedzione, że jest bezpieczna i pod kontrolą, a zaledwie 5 procent uważa, że należy ją rozwijać jak najprędzej.
– Niewielka liczba bardzo zamożnych firm buduje te systemy, podczas gdy ogromna większość ludzi preferowałaby obranie odmiennej ścieżki – mówi Aguirre.
Wśród osób, które złożyły podpis, znaleźli się również aktorzy Joseph Gordon-Levitt i Stephen Fry, raper will.i.am, izraelski historyk i pisarz Yuval Noah Harari, „ojciec chrzestny AI” Geoffrey Hinton czy brytyjski miliarder Richard Branson. Pod listem podpisała się także Susan Rice, doradczyni ds. bezpieczeństwa narodowego w administracji Baracka Obamy, a nawet Leo Gao – pracownik techniczny w OpenAI, organizacji, którą jej dyrektor generalny Sam Altman określa mianem „firmy badającej superinteligencję”. Aguirre przewiduje, że z biegiem czasu liczba podpisów wzrośnie: – Przekonania już są. Problem polega na tym, że ludzie nie czują się komfortowo, aby je otwarcie manifestować.
Książę Harry, książę Sussex, napisał w dokumencie: „Przyszłość sztucznej inteligencji winna służyć ludzkości, a nie ją zastępować. Wierzę, że realnym sprawdzianem postępu będzie nie to, jak szybko się przemieszczamy, lecz jak roztropnie sterujemy. Drugiej możliwości nie będzie”.
Reklama Reklama Reklama
Joseph Gordon-Levitt dodał: „Owszem, pragniemy konkretnych narzędzi AI, które pomogą leczyć choroby, umocnią bezpieczeństwo narodowe itd. Ale czy AI musi też naśladować ludzi, oddziaływać na nasze dzieci, uzależniać nas od bezwartościowych treści i gromadzić miliardy na reklamach? Większość ludzi tego nie chce. A jednak to właśnie mają na myśli potężne firmy technologiczne, kiedy mówią o »superinteligencji«”.
Niezbędne regulacje ustawowe
Aguirre uważa wszakże, że do faktycznych zmian potrzebne będą regulacje ustawowe: – Wiele szkód wynika z wypaczonych struktur motywacyjnych, którym obecnie podlegają przedsiębiorstwa – zauważa. – Firmy w USA i Chinach rywalizują, kto pierwszy stworzy superinteligencję. Niezależnie od tego, czy stanie się to niebawem, czy za jakiś czas – po skonstruowaniu superinteligencji to maszyny przejmą dowodzenie – dodaje.
Narasta liczba głosów, które przestrzegają, że gwałtowny rozwój w dziedzinie sztucznej inteligencji może zaprowadzić ludzkość na krawędź zagłady. Prof. Yoshua Bengio, laureat prestiżowej Nagrody Turinga i jeden z pionierów AI, w rozmowie z „Wall Street Journal” mówił otwarcie, że obawia się zagrożenia egzystencjalnego ze strony tej technologii – Może to nastąpić w przeciągu najbliższej dekady – ostrzegł. – Jeżeli zbudujemy maszyny, które są znacznie mądrzejsze od nas i mają swoje własne cele przetrwania, to jest to niebezpieczne – tłumaczył. Gdyż gdy AI stanie w obliczu dylematu: zrealizować obrany cel lub ocalić ludzkie życie, może bez wahania wybrać to pierwsze. I to nawet wówczas, gdy ceną będzie zgon człowieka.
FLI podobnie jak to czyni wielu naukowców, w swoim piśmie ostrzega nie tylko przed unicestwieniem ludzkości, ale i takimi niebezpieczeństwami jak utrata stanowisk pracy, ograniczenie swobód obywatelskich czy zagrożenie dla bezpieczeństwa krajowego.



