Idzie wielka rewolucja. Dyrektor giganta ostrzega: Europa jak muzeum

– Jeśli ktoś nie chce, żeby na jego danych były trenowane modele AI, nie powinien uczestniczyć w świecie online – mówi money.pl Nick Clegg, dyrektor ds. działalności globalnej Mety, właściciela Facebooka. – Ważne jest, by innowacje AI naprawdę wystrzeliły w Europie – tak, by dogonić USA i Chiny. Jesteśmy zagrożeni tym, że zostaniemy kontynentem-muzeum – ostrzega.

Nick Clegg, dyrektor ds. działalności globalnej w Mecie (właściciel Facebooka) (Getty Images, 2023 Getty Images)

Michał Wąsowski, money.pl: Ogłosiliście ostatnio program wsparcia dla startupów z branży AI. Jakich firm poszukujecie i czy macie na horyzoncie np. przejęcia takich biznesów bądź inwestowanie w nie? 

Nick Clegg, dyrektor Meta ds. działań globalnych: Muszę wyjaśnić, że nie szukamy w ten sposób firm do przejęcia. To w ogóle nie jest nasza motywacja ani tego typu program. Interesuje nas stworzenie koła zamachowego, w którym będzie coraz więcej innowacji bazujących na naszej technologii.

Widzieliśmy świetne efekty z wcześniejszych działań tego typu. Mamy nadzieję pokazać, że technologie open source są dobrą drogą dla europejskich firm na wczesnym etapie rozwoju, aby mogły one dokonać jakościowego skoku. Ważne jest, żeby innowacje AI naprawdę wystrzeliły w Europie – tak, by dogonić USA i Chiny. Nie szukamy więc firm do przejęcia, szukamy firm, które mogą wykorzystać sektor open source, by stworzyć realny ekosystem, którego w tej chwili w Europie nie ma. 

Dalsza część artykułu pod materiałem wideo

Zobacz także: "Trzeba być ostrożnym". Sebastian Kulczyk o popularnej technologii

Jakie branże bądź pomysły na wykorzystanie AI uważacie za najbardziej znaczące społecznie? 

AI już teraz zmienia diagnostykę medyczną. Ma też potencjał, by dostarczać spersonalizowaną edukację, co jest kluczowe dla wyciągnięcia maksimum z edukacji dla dzieci. Szczególnie jeśli połączy się to z immersyjnymi technologiami. Łatwiej jest uczyć dziecko o starożytnym Rzymie, jeśli pozwolimy mu się wirtualnie przejść po ulicach miasta.

Takie doświadczenia, wspomagane przez AI, mogą być naprawdę ekscytujące. Ale sztuczna inteligencja może być wykorzystana naprawdę w wielu publicznych sektorach: czy to systemie podatkowym, lokalnym zarządzaniu, przetwarzaniu dużej ilości danych. Wpływ tych technologii na PKB, również poprzez działania w sektorze publicznym, może być naprawdę spory. A pamiętajmy, że wszystko to dzieje się w czasie, gdy przez ostatnią połowę dekady produktywność w USA rosła o 6 proc., podczas gdy w Europie o 0,6 proc. 

Europa naprawdę aż tak nie radzi sobie z AI?

Oczywiście, już są w Europie takie firmy, ale bardzo mało w porównaniu do Stanów Zjednoczonych czy Chin. Jesteśmy zagrożeni tym, że zostaniemy kontynentem-muzeum, jeśli nie będziemy ostrożni. Goldman Sachs szacuje, że AI może podnieść globalne PKB o 7 proc. w ciągu 10 lat. Ale Europa z tego skorzysta tylko, jeśli będzie miała innowatorów, badaczy i startupy dynamicznie wykorzystujące tę technologię.

Dlatego dziwne dla mnie jest – i mówię to jako Europejczyk – że jesteśmy zmuszani do wstrzymywania trenowania naszych nowych modeli AI na europejskich danych. Jeśli nie wytrenujemy ich na danych z Europy, to Europejczycy będą używać modeli stworzonych na danych z USA. 

Owszem, Europa potrzebuje modeli wytrenowanych na swoich danych, ale musieliście wstrzymać się dosłownie na chwilę, bo niektórzy europejscy regulatorzy mieli spore wątpliwości. Mogliście się chyba spodziewać, że to się wydarzy, i lepiej się na to przygotować?  

I przewidzieliśmy to. Rozmawialiśmy z regulatorami w lutym, marcu, kwietniu. Wyjaśniliśmy im nasze plany. Europejski komisarz ds. ochrony danych przekazał nasze informacje innym organom. Oni dali nam swój feedback, my zmieniliśmy swoje plany. Przez dwa miesiące przepychaliśmy się w jedną i drugą stronę. I to wszystko w czasie, gdy nasi konkurenci – Google, Open AI i inni – otwarcie trenowali już swoje AI na publicznie dostępnych danych, dokładnie tych samych, których my chcemy używać. 

Regulatorzy i obywatele mają jednak uzasadnione obawy co do trenowania AI na swoich danych. Nie rozumieją, jak to działa, a firmy technologicznie niespecjalnie próbują to wyjaśnić. 

Nikt, kto próbuje trenować sztuczną inteligencję na danych europejskich, nie interesuje się samymi obywatelami. To, co próbują robić modele AI, to ustanowienie pewnych schematów. Tak naprawdę są to wielkie systemy rozpoznawania schematów. Nie próbują identyfikować ludzi. Jeśli nie udostępni im się danych używanych w Polsce, to Polacy będą korzystać z modeli trenowanych w Kalifornii czy Iowa, a nie Krakowie i Warszawie.

My chcemy zapewnić, że nasze modele AI będą kulturowo, językowo i empirycznie adekwatne dla Europy. Ironią jest, że skomplikowanie europejskich regulacji, istniejące w imię europejskiej suwerenności, prowadzi do mniejszego doświadczenia i suwerenności w branży AI. W tym przypadku „mniej suwerenności” oznacza, że będziemy dłużej używać rozwiązań trenowanych na danych z Ameryki. Mnie, jako Europejczykowi, wydaje się to przewrotne. 

Zatrzymajmy się tutaj na chwilę. Nie uważa pan, że jako użytkownicy powinniśmy być jednak ostrzegani – i mieć wybór – czy chcemy, by AI było trenowane na naszych danych? Obecnie często dzieje się to po cichu, użytkownicy o tym nie wiedzą. 

To nie jest do końca prawda. My na przykład wysłaliśmy dwa miliardy powiadomień. I byliśmy jedyną firmą, która powiadomiła ludzi w skali całego kontynentu. Nie tylko powiadamiamy o tym, ale też dajemy opcję wyłączenia danych użytkownika z tego procesu. Nikt inny tego nie zrobił. I zrobiliśmy to dokładnie z powodu feedbacku, który otrzymaliśmy od regulatorów kilka miesięcy temu.

Jeśli słychać lekką frustrację w moim głosie, to tylko dlatego, że naprawdę zrobiliśmy w tej kwestii więcej niż jakakolwiek inna firma z branży AI, by powiadomić setki milionów ludzi na kontynencie. A i tak – w przeciwieństwie do konkurentów – to nas wstrzymano w pracach. To oznacza zaś, że więcej czasu zajmie dostarczenie kulturowo wrażliwego modelu dla Europy. 

Zgadza się, ja też dostałem takie powiadomienie. Ale naprawdę uważa pan, że to wystarczy? Wiele osób nie rozumie tego albo zwyczajnie nie dostrzega pośród innych powiadomień. Ludzie nie zdają sobie sprawy, co de facto oznacza taki komunikat. Może więc jednak to, co zrobiliście, było niewystarczające. 

Ale zrobiliśmy to bardzo ostrożnie. Wybraliśmy nawet specjalnie spreparowany poziom języka do tego powiadomienia – o ile dobrze pamiętam, był on na poziomie szkoły podstawowej. Przetestowaliśmy to i tak dalej. Podzieliliśmy się tym z regulatorem. Ale oczywiście, możemy o tym dyskutować: czy powinniśmy wysłać więcej powiadomień, lepiej zaprojektować opcję wyłączenia się z tego.

Tylko problem w tym, że obecnie mylimy te sprawy i w efekcie Europa jest znacząco za USA i Chinami w trenowaniu tych modeli. Mnie chodzi więc o coś większego: trenujemy AI, prosimy o pozwolenie użytkowników i musimy to robić, by modele te były wrażliwe na językowy, kulturowy i narodowy kontekst wobec kraju, w którym mieszkasz. Inaczej tego nie możemy zrobić. Musimy na czymś wytrenować nasze modele. 

To nie zmienia faktu, że wiele osób nie rozumie tego zjawiska, procesu. I obawia się go. Co więc powiedziałby pan wszystkim osobom, które boją się udostępniać dane do trenowania modeli AI? 

Powiedziałbym im jedną, bardzo prostą rzecz. Dane, o które prosimy albo co do których informujemy, że będziemy na nich trenować, są publiczne. I sami wybraliście, żeby były publiczne. Nie trenujemy modeli na żadnych prywatnych danych. Nie wykorzystujemy danych, którymi dzielicie się na grupach albo w wiadomościach, w tym z przyjaciółmi i rodziną.

Jeśli więc ktoś nie chce, żeby na jego danych były trenowane modele AI, nie powinien uczestniczyć w świecie online. Bo ludzie nieustannie upubliczniają swoje dane, w naszych usługach więcej niż w innych, ale każdy ma nad tym dokładną kontrolę. Dlatego jasno mówimy, że będziemy nie tylko pytać użytkowników, ale dawać im możliwość wyłączenia się z tego. I co więcej, że chodzi o dane, które już są publicznie dostępne – i z których nasi konkurenci już korzystają, by trenować własne modele.

Jeśli ktoś tego nie chce, zapewne powinien przestać korzystać ze smartfonów i komputerów, bo cały czas uczestniczymy w świecie online. Jestem Europejczykiem i bardzo zależy mi na prywatności danych, czeka nas na tym polu wiele bitew. Ale nie uważam, by można było stwierdzić, że to, co robią big techy, jest nieracjonalne. 

To ostatnie pytanie, związane z tą sprawą. Obywatele mogą wybrać, czy chcą udostępniać wam swoje dane, ale już wydawców to nie dotyczy – praca dziennikarzy jest wykorzystywana bez ich zgody. Jak zapatruje się pan na kwestię płacenia za wykorzystanie danych mediów? Artykuły, które piszemy, są w domenie publicznej, dostępne za darmo. 

Uważam, że to na pewno będzie sprawa, która potrwa jeszcze trochę, pojawią się kwestie sporne i tak dalej. Ale znowu podkreślę, że korzystamy z danych dostępnych publicznie lub licencjonowanych. Co istotne, newsy i tym podobne treści nie są tak ważne dla dużych modeli AI.

Powtórzę po raz kolejny, że te modele próbują fundamentalnie po prostu rozwinąć zdolność do rozumienia schematów. Nie próbują naśladować niczyjej własności intelektualnej. Ale jestem pewien, że będzie toczyć się debata pomiędzy posiadaczami praw i podmiotami rozwijającymi te modele.

My chcemy tylko, by te modele były użyteczne dla ludzi – dla ochrony zdrowia, sektora publicznego i tak dalej. Jeśli nie nakarmi się ich dużą ilością danych, będą po prostu mniej przydatne. I to jest problem społeczny: jeśli nikt nie chce, by jego dane zostały wykorzystane, to nie dziwmy się potem, że technologia nie będzie zbyt pomocna. I że Europa nie będzie nadążać za USA i Chinami. To jest, moim zdaniem, największe wyzwanie dla naszego kontynentu na następnych 10-20 lat.  

Rozmawiał Michał Wąsowski, zastępca redaktora naczelnego money.pl

Źródło

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *