Przed tym „egzystencjalnym zagrożeniem” ostrzega spółka Google. To AGI

Przed Tym Egzystencjalnym Zagroeniem Ostrzega Spka Google To Agi E9d4bb6, NEWSFIN

W miarę jak świat koncentruje się na nowych pomysłach Donalda Trumpa, zainteresowanie sztuczną inteligencją zaczęło maleć. Jej rozwój może prowadzić do powstania AGI, inteligencji maszynowej o ogromnych możliwościach.

Foto: Bloomberg

Michał Duszczyk

DeepMind – brytyjska firma zajmująca się AI, założona przez znane osobistości w tej dziedzinie: Demisa Hassabisa i Mustafę Suleymana – opracowała dokument, w którym autorzy ostrzegają przed „poważnymi zagrożeniami” związanymi z rozwojem sztucznej inteligencji.

Kiedy możemy się spodziewać AGI? Ekspresowy rozwój AI

W dokumencie liczącym 145 stron naukowcy zbadali perspektywy rozwoju AI do roku 2030. Skupili się również na możliwości stworzenia tzw. ogólnej AI (AGI). Firma, która została przejęta przez Google w 2014 roku, wskazuje m.in. na egzystencjalne zagrożenie dla ludzkości. Krytycznie ocenia też podejście do AGI, jakie prezentują konkurencyjne firmy: OpenAI oraz Anthropic. Należąca do Google spółka podkreśla konieczność monitorowania postępu technologii oraz wprowadzenia odpowiednich zabezpieczeń, jak również ustanowienia rodzaju „kontroli dostępu” do takich systemów.

Opracowanie rozwiązań, które zapewnią bezpieczeństwo ludzkości w kontekście szybkiego rozwoju AI, to – według DeepMind – niezbędność. Eksperci zwracają uwagę na zdolność AI do samodoskonalenia się. Zjawisko to, według badaczy, może okazać się szczególnie niebezpieczne. Paradoxalnie jednak analiza Google DeepMind sugeruje, że szybki rozwój superinteligencji jest wątpliwy. Niemniej jednak w dokumencie stwierdzają, że stworzenie AGI, czyli systemu zdolnego do realizacji wszystkich zadań, które może wykonać człowiek, jest możliwe w ciągu najbliższych pięciu lat.

Jakie niebezpieczeństwa niesie rozwój sztucznej inteligencji?

DeepMind definiuje AGI jako system, który dorównuje 1 proc. najbardziej wykwalifikowanych ludzi w określonych zadaniach. Stworzenie tak zaawansowanej technologii wymaga wprowadzenia „barier”. Dokument zaleca opracowanie metod zabezpieczających AGI przed dostępem osób nieuprawnion

Źródło

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *