Geoffrey Hinton twierdzi, że jedynym rozwiązaniem dla AI jest zaprogramowanie w maszynach czegoś w rodzaju „instynktów macierzyńskich”
Michał Duszczyk
Reklama
Geoffrey Hinton, laureat Nagrody Nobla oraz jeden z pionierów współczesnych sieci neuronowych, znany w branży jako „ojciec chrzestny AI”, zaskoczył słuchaczy podczas swojego wystąpienia na konferencji Ai4 w Las Vegas. Jest powszechnie wiadomo, że nie jest on zwolennikiem szybkiego rozwoju systemów sztucznej inteligencji bez jakiejkolwiek kontroli. Teraz jednak wyraził to bardzo wyraźnie. Znacząco skrócił swoje wcześniejsze prognozy dotyczące pojawienia się superinteligencji i zaapelował o radykalną zmianę w podejściu do kwestii bezpieczeństwa AI. Naukowiec jasno stwierdził, że jedynym ratunkiem jest zaprogramowanie w maszynach czegoś na kształt „instynktów macierzyńskich”.
Reklama Reklama
AI jako „egzystencjalne zagrożenie”?
Przez lata Hinton uspokajał, że do stworzenia ogólnej sztucznej inteligencji (AGI) – systemu przewyższającego ludzi w każdym zadaniu – potrzeba od 30 do 50 lat. Jednak na ostatniej konferencji Ai4 w Las Vegas zmienił te szacunki. Oznajmił, że ten moment może nadejść znacznie szybciej, być może już w perspektywie kilku lat. Ta zmiana prognoz idzie w parze z mroczną wizją przyszłości, w której maszyny stają się „znacznie mądrzejsze od nas” i mogą stanowić „egzystencjalne zagrożenie”. Badacz ocenił prawdopodobieństwo, że AI w końcu doprowadzi do zagłady ludzkości, na 10 do 20 proc. Aby temu zapobiec, konieczne jest działanie z wyprzedzeniem, ale – według noblisty – próby wprowadzenia sztywnych reguł i ograniczeń w maszynach są skazane na niepowodzenie.
– Te systemy znajdą sposoby na obejście wszelkiej kontroli – ostrzegł. Porównał próby nadzoru nad superinteligencją do sytuacji, w której dorosły usiłuje przekupić dziecko cukierkami, aby osiągnąć swój cel.
Jego zdaniem systemy