Czy ludzkość niepotrzebnie obawia się buntu maszyn w stylu Terminatora? To niepotrzebnie, bo AI może "wykończyć" ludzkość energetycznie. Oszacowano, że już w 2027 roku będzie pożerać tyle energii, co kraj wielkości Holandii.
Koncerny prześcigają się w technologicznym wyścigu. Jak się okazuje, sztuczna inteligencja zużywa więcej energii niż konwencjonalne aplikacje, przez co korzystanie z internetu jest bardziej energochłonne. Z drugiej strony są jednak dobre informacje – jak się okazało, wpływa AI na środowisko może być mniejszy, niż się wstępnie obawiano.
To główne wnioski z raportu przedstawionego przez doktoranta Alexa De Vriesa z Holandii. W swoich szacunkach oparł się na parametrach, tj. obecne tempo rozwoju, dostępność chipów oraz ciągła praca serwerów 24 godziny na dobę. Jednak jest w jego analizie duża niewiadoma, gdyż firmy technologiczne nie chcą ujawniać znacznej części danych dotyczących tworzonej przez nich sztucznej inteligencji.
Zgodnie z jego danymi wynika, że obecnie Nvidia dostarcza około 95 proc. chipów potrzebnych do pracy AI, która wymaga mocniejszego sprzętu niż tradycyjne zadania. Analizując liczbę komputerów, która może się pojawić do 2027 roku, obliczył, że sztuczna inteligencja będzie zużywała od 85 do 134 terawatogodzin prądu rocznie.
– Górna granica zużycia odpowiada zużyciu kraju wielkości Holandii. To pół procenta naszego całkowitego światowego zużycia energii elektrycznej – skomentował Alex De Vries w BBC News. – Stąd wniosek, że sztuczną inteligencją należy stosować tylko wówczas, gdy jest naprawdę potrzebna – dodaje.
Nvidia nie skomentowała raportu.
Po co sztucznej inteligencji tyle energii i wody?
ChatGPT firmy OpenAI i Bart Google wymaga działania magazynów specjalistycznych komputerów, zwanych centrami danych. To oznacza, że muszą być chłodzone przy użyciu systemów, które wręcz pochłaniają wodę. Koncerny nie określają, ile jej zużyły. To powinno się zmienić – apeluje holenderski naukowiec. W najnowszym raporcie firmy Miocrosoft zdradziła ona, że po inwestycji w rozwój sztucznej inteligencji zużycie wody wzrosło w latach 2011-2022 o 34 proc. do 6,4 mln metrów sześciennych, co odpowiada 2,5 tys. basenów o wymiarach olimpijskich Dlatego ekonomiczniej jest budować je w miejscach o chłodniejszym klilmacie, wykorzystując naturalne sposoby wspomagania chłodzenia.
Tak samo różni się zużycie energii, którą można zauważyć między szafą zawierającą standardowe serwery a szafą z procesorami AI. Standardowa szafa ma moc około 4 kilowatów, co można porównać do jednego gospodarstwa domowego. Z kolei szafa z zestawem AI ma moc około 20 razy większą, czyli 80 kilowatów mocy. By mieć zaledwie jedno centrum danych należy postawić ich obok siebie setki, a nawet tysiące.