AI stanowi niebezpieczeństwo! Yoshua Bengio alarmuje: inteligencja maszynowa przedłoży życie ludzkie ponad wszystko.

Ai Stanowi Niebezpieczestwo Yoshua Bengio Alarmuje Inteligencja Maszynowa Przedoy Ycie Ludzkie Ponad Wszystko 9818506, NEWSFIN

Foto: Adobe Stock

Michał Duszczyk

Reklama

Z tego artykułu dowiesz się:

  • Jakie są główne lęki prof. Yoshuy Bengio związane z rozwojem inteligencji maszynowej?
  • Dlaczego progres w obszarze AI może być egzystencjalnym niebezpieczeństwem dla rodzaju ludzkiego?
  • Jakie działania proponuje prof. Bengio w celu podniesienia poziomu bezpieczeństwa AI?

Gwałtowny rozwój w sferze inteligencji maszynowej może zepchnąć ludzkość na krawędź zguby w przeciągu następnej dekady – zaalarmował prof. Yoshua Bengio, często nazywany „ojcem chrzestnym AI”. Ten uznany badacz, zdobywca renomowanej Nagrody Turinga, w rozmowie z „Wall Street Journal” otwarcie stwierdził, że obawia się o egzystencjalne niebezpieczeństwo płynące z tej technologii.

Reklama Reklama

„Rywal inteligentniejszy od nas”

Bengio jest jednym z prekursorów inteligencji maszynowej, profesorem z Uniwersytetu w Montrealu. Jego zaniepokojenie nie ma charakteru teoretycznego. Bazuje na rezultatach eksperymentów, które kreują przygnębiający obraz potencjalnych postaw maszyn posiadających superinteligencję oraz własne cele, takie jak przeżycie lub samodoskonalenie.

– Jeżeli skonstruujemy maszyny, które przewyższają nas inteligencją i mają indywidualne dążenia do przetrwania, to jest to ryzykowne – zaznacza naukowiec.

Reklama Reklama Reklama

Jak tłumaczy, symulacje pokazują, że w pewnych sytuacjach, gdy AI stanie przed wyborem: zrealizować wyznaczony cel lub uratować ludzkie życie, może bez wahania wybrać pierwsze rozwiązanie. Nawet jeśli zapłatą będzie śmierć człowieka. Ta posępna wizja staje się coraz bardziej prawdopodobna w obliczu przyśpieszającego wyścigu technologicznego.

Sygnały ostrzegawcze prof. Bengio zyskują wyjątkowe znaczenie w kontekście konkurencji rynkowej. W niedalekiej przeszłości byliśmy świadkami zapowiedzi nowych, mocniejszych modeli od OpenAI, Anthropic, xAI Elona Muska czy Gemini od Google. Sam Altman, dyrektor OpenAI, przewiduje, że AI przerośnie inteligencję ludzką jeszcze przed końcem tej dekady. Jednocześnie administracja Donalda Trumpa uchyliła część regulacji bezpieczeństwa wprowadzonych przez poprzedników, aby przyspieszyć amerykański progres w tej dziedzinie.

Bengio od dawna ostrzegał, że ludzkość podąża ścieżką, w której tworzy „rywala, będącego bystrzejszym od nas”. Taka superinteligencja mogłaby wpływać na ludzi poprzez perswazję, groźby lub zaawansowaną manipulację opinią publiczną. Bengio przestrzega, że systemy te mogą być również wykorzystane przez terrorystów do projektowania broni biologicznej lub do destabilizacji państw demokratycznych.

Korporacje nie zwolnią tempa

Pomimo tego, że, jak podkreśla, „wiele osób wewnątrz tych firm się niepokoi”, presja konkurencyjna sprawia, że nikt nie zmniejsza prędkości. Jego zdaniem, w tej sytuacji poleganie jedynie na samoregulacji korporacji jest pomyłką. Pionier AI optuje za stworzeniem mechanizmów niezależnej, zewnętrznej weryfikacji metod bezpieczeństwa stosowanych przez twórców. Aby wesprzeć te działania, w czerwcu utworzył organizację non-profit LawZero. Dzięki funduszom od filantropów w wysokości ponad 30 mln dol. jego zespół pracuje nad „Scientist AI” – specjalnym systemem inteligencji maszynowej, który ma funkcjonować odmiennie niż obecne modele. Takie modele nie będą realizować działań ani wydawać jednoznacznych opinii, a zamiast tego będą udzielały odpowiedzi opartych na kalkulacji prawdopodobieństwa. W założeniu ma pełnić rolę zabezpieczenia chroniącego przed niekontrolowanymi agentami AI.

„Ojciec chrzestny AI”, który koordynował pracami nad pierwszym międzynarodowym raportem na temat bezpieczeństwa AI, szacuje, że poważne niebezpieczeństwa mogą zaistnieć już za pięć do dziesięciu lat, chociaż nie odrzuca możliwości, że „katastrofa” może nadejść wcześniej.

Reklama Reklama Reklama

– Nawet jeśli istniałoby zaledwie ryzyko jej zaistnienia w wysokości 1 proc., nie można tego zaakceptować – podsumowuje.

Źródło

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *