Rozwój AI sprawi, że potencjalnych cyberzagrożeń będzie coraz więcej – ocenił w poniedziałek dyrektor NASK Radosław Nielek podczas Forum Ekonomicznego TIME. Jednocześnie zauważył, że wykorzystanie technologii AI w cyberbezpieczeństwie, pozwoli tworzyć systemy, które będą w stanie bronić się przed tymi atakami .
Nielek ocenił, że regulacje dotyczące AI są niezbędne. Zwrócił uwagę, że w dzisiejszym świecie reguluje się bardzo wiele rzeczy, więc powinno to totyczyc również AI.
"Musimy być świadomi, że zastosowanie i rozwój AI do różnych obszarów życia, zwiększa ekspozycje na zagrożenia”. Dodał, że potencjalnych zagrożeń będzie coraz więcej, AI zwiększy ilość i jakość ataków hakerskich."Te rodzaje ataków będą bardziej wyszukane i będą się odbywać w większej skali". Jako przykład potencjalnych ataków hakerskich z wykorzystaniem AI, wskazał możliwość automatycznego generowania wielu maili phishingowych (technika wyłudzania danych – PAP), w krótkim czasie oraz dostosowanym do potencjalnego odbiorcy.
Jako inne zagrożenia wynikające z rozwoju AI, wskazał również zdobywanie danych zastrzeżonych przez AI. Wyjaśnił, że jeśli np. sztuczna inteligencja będzie umiała odczytywać pewne terminy związane z chorobami, zadanie pytania AI zawierające ten termin, może ujawnić pewne wrażliwe dane medyczne".
Zapytany o wykorzystanie AI w konfliktach zbrojnych odpowiedział: "oczywiście że AI zostanie wykorzystana – wszystko co człowiek wymyślił zostało wykorzystane i tak samo zostanie wykorzystana AI". Jako przykład potencjalnego wykorzystania AI w konfliktach zbrojnych wymienił techniki dezinformacyjne, oraz wykorzystanie jej do bezpośrednich uderzeń, np. jako narzędzie nawigujące, oraz analiza celów bombardowań. (PAP)
bk/ drag/