Sztuczna inteligencja nie będzie mogła wykorzystać „skażonych” danych
Michał Duszczyk
System o nazwie Nightshade (z ang. Nocny Cień) ma być odpowiedzią na działania gigantów AI, jak Microsoft czy Google, którzy trenują swoje algorytmy na dostępnych w sieci obrazach, choć te są chronione prawami autorskimi. Nocny Cień ma za zadanie chronić m.in. artystów (malarzy, fotografów), których dzieła wykorzystywane mogą być do szkolenia sztucznej inteligencji i generowania nowych treści. Projekt zespołu Zhao został już z powodzeniem przetestowany na najnowszych modelach generatorów graficznych AI od Stable Diffusion.
System Nightshade umożliwia artystom dodawanie niewykrywalnych dla oka pikseli do ich prac. Po co? To rodzaj zabezpieczenia, które – nie zniekształcając samego obrazu – uszkadza dane szkoleniowe bota.
Mylenie sztucznej inteligencji
Jak informuje „MIT Technology Review”, nowatorskie narzędzie, w praktyce AI obraz damskiej torebki będzie błędnie interpretowała jako toster, psa jako kota czy samochód jako krowę. Według serwisu, opracowana na Uniwersytecie w Chicago technologia to swoista trucizna dla algorytmów, która może zachęcić głównych graczy z branży AI do „odpowiedniego wynagradzania artystów za ich pracę” (płacenia im za szkolenie botów na dziełach chronionych prawem autorskim).