Ludzki mózg charakteryzuje się tym, że liczne etapy procesu myślowego wykonuje równolegle, a nie sekwencyjnie. Komórki nerwowe, a dokładniej synapsy, są jednocześnie procesorem i pamięcią
Urszula Lesman
Naukowcy Víctor López-Pastor i Florian Marquardt z Instytutu Nauk o Świetle Maxa Plancka w Erlangen w Niemczech opracowali metodę bardziej wydajnego szkolenia sztucznej inteligencji. Ich metoda wykorzystuje procesy fizyczne charakterystyczne dla ludzkiego mózgu.
Open AI, firma odpowiedzialna za rozwój GPT, technologii napędzającej ChatGPT, nie ujawniła ilości energii potrzebnej do wyszkolenia tego zaawansowanego chatbota AI. Według niemieckiej firmy statystycznej Statista wymagałoby to 1000 megawatogodzin – czyli tyle, ile zużywa rocznie około 200 gospodarstw domowych składających się z trzech lub więcej osób. Chociaż ten wydatek na energię pozwolił AI dowiedzieć się, czy w zbiorach danych po słowie „głębokie” częściej występuje słowo „morze” czy „uczenie się”, to jednak nie zrozumiał on podstawowego znaczenia tych zwrotów.
Przetwarzanie neuromorficzne nadzieją AI
Aby zmniejszyć zużycie energii przez komputery, a zwłaszcza aplikacje AI, w ciągu ostatnich kilku lat kilka instytutów badawczych analizuje zupełnie nową koncepcję przyszłego przetwarzania danych przez komputery. Koncepcja ta znana jest jako przetwarzanie neuromorficzne. Oznacza to, że oprogramowanie, a dokładniej algorytm, wzorowany jest na sposobie pracy ludzkiego mózgu, ale sprzętem są komputery cyfrowe. Wykonują kolejno, jeden po drugim, etapy obliczeń sieci neuronowej, rozróżniając procesor i pamięć.
Ludzki mózg prawdopodobnie nigdy nie byłby ewolucyjnie konkurencyjny, gdyby pracował z wydajnością energetyczną podobną do komputerów z tranzystorami krzemowymi. Najprawdopodobniej szybko doszłoby do awarii z powodu przegrzania. Jednak mózg charakteryzuje się tym, że liczne etapy procesu myślowego wykonuje równolegle, a nie sekwencyjnie. Komórki nerwowe, a dokładniej synapsy, są jednocześnie procesorem i pamięcią. Naukowcy postanowili więc stworzyć neuromorficzny komputer pracujący jak ludzi mózg.
Samoucząca się maszyna za 3 lata
Florian Marquardt wraz z Víctorem Lópezem-Pastorem opracowali skuteczną metodę uczenia komputerów neuromorficznych. „Opracowaliśmy koncepcję samouczącej się maszyny” – wyjaśnia Florian Marquardt.
Podczas szkolenia konwencjonalnych sztucznych sieci neuronowych konieczne jest zewnętrzne sprzężenie zwrotne, aby dostosować siłę wielu miliardów połączeń synaptycznych. „Niewymaganie tej informacji zwrotnej sprawia, że szkolenie jest znacznie wydajniejsze” – mówi Marquardt. Wdrożenie i wyszkolenie sztucznej inteligencji na samouczącej się maszynie fizycznej pozwoliłoby nie tylko zaoszczędzić energię, ale także czas obliczeniowy. Proces ten musi jednak spełniać kilka warunków. Co najważniejsze, musi być odwracalny, co oznacza, że musi móc poruszać się do przodu lub do tyłu przy minimalnych stratach energii – proces fizyczny musi być nieliniowy, ponieważ tylko procesy nieliniowe mogą przeprowadzić skomplikowane transformacje pomiędzy danymi wejściowymi a wynikami.
„Mamy nadzieję, że za trzy lata będziemy mogli zaprezentować pierwszą samouczącą się maszynę fizyczną” – mówi Marquardt. Do tego czasu powinny powstać sieci neuronowe, które myślą za pomocą znacznie większej liczby synaps i są szkolone na znacznie większych ilościach danych niż obecnie.
Naukowcy są pewni, że samouczące się maszyny fizyczne mają duże szanse zostać wykorzystane w dalszym rozwoju sztucznej inteligencji.