
Sztuczna inteligencja może stanowić poważne zagrożenie dla ludzkości. Ta prognoza przewyższa wszystkie wcześniejsze
Michał Duszczyk
Reklama
Wizja przyszłości, którą w rozmowie z „The Times” przedstawił Nate Soares, były inżynier w Google i Microsoft, a obecnie lider Machine Intelligence Research Institute (MIRI), przeraża. Jego zdaniem, ludzkość zmierza w stronę katastrofy egzystencjalnej wywołanej przez sztuczną inteligencję, a szanse na pozytywny wynik tej drogi są znikome. Ekspert oszacował je na jedynie 5 proc. I to w najbardziej optymistycznym scenariuszu.
Czym jest „P(doom)”?
Soares, kierujący jednym z najstarszych ośrodków badawczych zajmujących się bezpieczeństwem AI, posługuje się sugestywną metaforą. Postęp w kierunku superinteligencji przypomina mu pojazd pędzący ku przepaści. Różnica polega na tym, że w znanym nam pojeździe wiemy, gdzie znajduje się hamulec. W przypadku sztucznej inteligencji – wciąż go poszukujemy, a prędkość rośnie. W odniesieniu do AI ten postęp jest widoczny z miesiąca na miesiąc. Prognozy prezesa MIRI mówią o zagładzie. Prawdopodobieństwo to ma wynosić 95 proc. To jedno z najbardziej skrajnych stanowisk w branży. Jednocześnie jest to głos, który trudno zlekceważyć, biorąc pod uwagę doświadczenie Soaresa w technologicznych gigantach, gdzie miał bezpośredni wgląd w tempo rozwoju AI.
Ekstremalny pesymizm nie jest jednak w tej branży tak powszechny. Skrajna ocena Nate’a Soaresa ma jednak spore grono zwolenników. W tym gronie często pojawia się termin „P(doom)”. To wskaźnik prawdopodobieństwa katastrofy egzystencjalnej spowodowanej przez niekontrolowaną sztuczną inteligencję.
Jak AI może zniszczyć ludzkość?
W branży uśrednione dane z ankiety „P(doom)” wśród badaczy AI wskazują na 14,4 proc. A mediana wynosi 5 proc. Warto przytoczyć badanie z 2024 r., w którym uczestniczyło 2778 specjalistów od sztucznej inteligencji. W



