Noblista Geoffrey Hinton ostrzega: AI może zniszczyć świat. Prawdopodobieństwo tego rośnie

Noblista Geoffrey Hinton Ostrzega Ai Moze Zniszczyc Swiat Prawdopodobienstwo Tego Rosnie 5f2269e, NEWSFIN

Geoffrey Hinton w 2024 roku otrzymał w Sztokholmie Nagrodę Nobla w dziedzinie fizyki

Foto: Arthur Petron, CC BY-SA 4.0 <https://creativecommons.org/licenses/by-sa/4.0>, via Wikimedia Commons

Paweł Rożyński

Geoffrey Hinton powiedział w wywiadzie dla radia BBC, że istnieje 10–20 proc. szans, że sztuczna inteligencja doprowadzi w ciągu trzech dekad do zagłady ludzkości, ponieważ zmiany technologiczne są znacznie szybsze niż oczekiwano.

Brytyjski informatyk mieszkający w Kanadzie, emerytowany profesor Uniwersytetu w Toronto, w tym roku otrzymał Nagrodę Nobla w dziedzinie fizyki za „fundamentalne odkrycia i wynalazki umożliwiające uczenie maszynowe z wykorzystaniem sztucznych sieci neuronowych”. Wcześniej, bo w 2018 roku, Hinton otrzymał w 2018 r. Nagrodę Turinga, często nazywaną „nagrodą Nobla w dziedzinie informatyki”, za „koncepcyjne i inżynieryjne przełomy, które sprawiły, że głębokie sieci neuronowe stały się krytycznym elementem informatyki”.

Jakie zagrożenia niesie AI?

W 2023 roku było o naukowcu było głośno, kiedy zrezygnował z pracy w Google, twierdząc, że „źli aktorzy” mogą wykorzystać tę technologię do wyrządzenia krzywdy innym. – Nie sądziłem, że będziemy teraz w tym miejscu. Myślałem, że dotrzemy tu później – powiedział, wskazując na zagrożenia związane z rozwojem AI, jak choćby wykorzystanie jej do celów wojskowych.

Jego zdaniem trzeba podjąć „bardzo ostrożną i rozważną” decyzje o rozwoju sztucznej inteligencji, która jest „potencjalnie bardzo niebezpieczną technologią”. Stwierdził, że większość ekspertów w tej dziedzinie uważa, że ​​kiedyś, prawdopodobnie w ciągu najbliższych 20 lat, będziemy rozwijać sztuczna inteligencję mądrzejszą od ludzi. – I to jest bardzo przerażająca myśl – mówił. – Lubię o tym myśleć w ten sposób: wyobraźcie sobie siebie i trzylatka – my będziemy trzylatkami, a oni (maszyny – red.) dorosłymi.

Profesor Hinton powiedział, że sztuczna inteligencja będzie miała wpływ na świat podobny do rewolucji przemysłowej. – W rewolucji przemysłowej siła człowieka przestała mieć znaczenie, ponieważ maszyny były po prostu silniejsze i jeśli chciałeś kopać rów, kopałeś go maszyną. Teraz mamy coś, co zastąpi ludzką inteligencję. Będą to maszyny – powiedział.

– Te istoty będą inteligentniejsze od nas. Dlatego podczas rewolucji przemysłowej nigdy nie było szans, że maszyny przejmą kontrolę nad ludźmi tylko dlatego, że są silniejsze. Nadal sprawowaliśmy kontrolę, ponieważ mieliśmy inteligencję. Teraz istnieje ryzyko, że maszyny mogą przejąć kontrolę. A to wielka różnica – mówił. We wcześniejszym wywiadzie dla BBC szacował na 50 proc. ryzyko, że „za pięć do 20 lat będziemy musieli stawić czoła problemowi sztucznej inteligencji próbującej przejąć kontrolę”.

Potrzebne nowe przepisy i świadczenia dla obywateli

Zapytany, jak jego zdaniem może wyglądać życie za 10 lub 20 lat, profesor Hinton powiedział: – Będzie to w dużej mierze zależeć od tego, co nasze systemy polityczne zrobią z tą technologią. Będzie to miało wiele wspaniałych efektów w opiece zdrowotnej i niemal w każdej branży sprawi, że wszystko stanie się bardziej wydajne, ale musimy być bardzo ostrożni przy jej rozwoju – dodał. Zdaniem noblisty potrzeba przepisów, które powstrzymają ludzi przed używaniem AI do złych celów, a obecnie nie wydaje się, aby politycy byli zainteresowani ich wprowadzeniem.

Choć AI zwiększy produktywność, może być niekorzystna dla społeczeństwa, jeśli wiele osób straci pracę, a wszystkie korzyści trafią do ludzi bogatych. – Jeśli istnieje duża przepaść między bogatymi i biednymi, jest to bardzo niekorzystne dla społeczeństwa – powiedział Hinton. Już wcześniej wskazywał, że konieczna będzie nowa forma świadczeń dająca stałe kwoty każdemu obywatelowi w sytuacji gdy „sztuczna inteligencja zabierze wiele prozaicznych miejsc pracy”.

Źródło

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *