Rene Haas, dyrektor generalny produkującej mikroprocesory firmy Arm, zwrócił uwagę na ciągle rosnące zapotrzebowanie technologii AI na energię, ostrzegając przed potencjalnymi poważnymi konsekwencjami, jeśli wkrótce nie zostaną odkryte sposoby ograniczenia jej zużycia. Przemawiając na uniwersytetach w USA i Japonii z okazji ogłoszenia programu finansowania w wysokości 110 milionów dolarów na badania nad sztuczną inteligencją, Haas podkreślił pilną potrzebę przyspieszenia badań, które zapobiegłyby stagnacji w rozwoju sztucznej inteligencji. Według Haasa same tylko amerykańskie firmy zajmujące się sztuczną inteligencją zużywają obecnie około czterech procent całkowitej mocy w Stanach Zjednoczonych. Jednak do 2030 r. działanie chatbotów i zdalnych usług generatywnych w centrach danych AI może wymagać nawet 20 do 25 procent możliwości całej amerykańskiej sieci energetycznej. Haas szczególnie podkreślił „nienasycone” zapotrzebowanie na energię dużych modeli językowych (LLM), takich jak ChatGPT czy Gemini. Alarmistyczne prognozy dotyczące zużycia energii przez AI są coraz bardziej powszechne, a Międzynarodowa Agencja Energii (IEA) w raporcie na 2024 przewiduje, że w tym roku zużycie energii przez centra danych AI będzie aż 10 razy wyższe niż w 2022 roku. Pomimo tego, że chatboty są usługami internetowymi zorientowanymi na konsumenta, wykazują one znacznie wyższe zapotrzebowanie na energię w porównaniu do prostych zapytań w wyszukiwarce Google.
fot. NVIDIA
IEA szacuje, że pojedyncze zapytanie ChatGPT zużywa prawie 10 razy więcej energii niż wyszukiwanie w Google. Gdyby Google miało przyjąć LLM dla swojej usługi wyszukiwania, firma potrzebowałaby dodatkowych 10 terawatogodzin (TWh) energii rocznie. W niedawnym raporcie opublikowanym w The New Yorker podano, że ChatGPT zużywa ponad pół miliona kilowatogodzin energii elektrycznej dziennie, podczas gdy przeciętne amerykańskie gospodarstwo domowe zużywa zaledwie 29 kilowatogodzin w tym samym czasie. W raporcie IEA wskazano, że rządy na całym świecie będą prawdopodobnie już wkrótce zmuszone do interwencji i nałożenia ścisłych limitów zużycia energii zarówno na tradycyjne centra danych, jak i centra obliczeniowe AI. Haas zasugerował, że zarówno akceleratory sprzętowe, jak i algorytmy sztucznej inteligencji muszą stać się znacznie bardziej wydajne, w przeciwnym razie nowa era nieustannej ewolucji sztucznej inteligencji może wkrótce zostać ograniczona przez nadmierne zużycie energii elektrycznej. Wyższa wydajność sprzętu może być wykorzystywana przez firmy Big Tech i AI w celu zwiększenia możliwości obliczeniowych AI przy jednoczesnym utrzymaniu tego samego poziomu zużycia energii. Innym rozwiązaniem byłoby zwiększenie produkcji energii elektrycznej i zmniejszenie jej cen. Być może więc to właśnie AI przyczyni się do przyspieszenia badań i wdrażania wydajnych i tanich technologii produkcji prądu.
To jest uproszczona wersja artykułu. KLIKNIJ aby zobaczyć pełną wersję (np. z galeriami zdjęć)
Spodobał Ci się ten news? Zobacz nasze największe HITY ostatnich 24h
Skomentuj