3 Minuty
Gwałtowny wzrost sztucznej inteligencji stawia nowe wyzwania energetyczne
Dynamiczny rozwój technologii sztucznej inteligencji powoduje bezprecedensowy wzrost zapotrzebowania na energię elektryczną, budząc obawy wśród przedstawicieli branży technologicznej oraz globalnych planistów infrastruktury. Najnowsze analizy pokazują, że zużycie prądu przez centra danych AI wkrótce może przewyższyć nie tylko potrzeby kopalni Bitcoinów, ale także zużycie energii przez całe państwa.
Nowe badania ujawniają skalę problemu
W recenzowanym badaniu opublikowanym w czasopiśmie „Joule” przez Alexa de Vries-Gao, doktoranta w Instytucie Badań Środowiskowych na Vrije University Amsterdam, przedstawiono wszechstronną ocenę tego trendu. Na podstawie specyfikacji technicznych, danych rynkowych oraz analizy łańcucha dostaw obejmującej kluczowych producentów, takich jak TSMC, NVIDIA i AMD, de Vries-Gao oszacował globalne zapotrzebowanie na energię dla sztucznej inteligencji.
Centra danych AI napędzają wzrost zużycia energii
Każdy nowoczesny układ NVIDIA H100 – kluczowy element infrastruktury AI – zużywa obecnie około 700 watów podczas ciągłej pracy przy obsłudze skomplikowanych modeli głębokiego uczenia. Ponieważ miliony tych chipów są instalowane na całym świecie, łączny pobór mocy rośnie w zawrotnym tempie.
Szacuje się, że sprzęt AI wyprodukowany w latach 2023–2024 będzie potrzebował od 5,3 do 9,4 gigawata energii. Dla porównania, już teraz ten poziom zapotrzebowania przewyższa cały krajowy pobór energii elektrycznej Irlandii, co pokazuje, jak znaczący wpływ ma sektor AI na światowe sieci energetyczne.
Porównanie zużycia energii przez AI i kopanie Bitcoina
Choć kopanie Bitcoina od dawna jest krytykowane za wysokie zużycie energii, centra danych AI są na dobrej drodze, by przewyższyć je w tej kwestii. Ponieważ największe firmy technologiczne rzadko ujawniają rzeczywiste zużycie energii przez swoje systemy AI, naukowcy korzystają z pośrednich danych z łańcucha dostaw oraz prognoz branżowych, aby uzyskać wiarygodne szacunki.
Innowacje technologiczne i presja rynku
Kluczową rolę w tym wzroście odgrywa technologia pakowania CoWoS (Chip-on-Wafer-on-Substrate) firmy TSMC, umożliwiająca integrację ultra-wydajnych procesorów i szybkiej pamięci w jednym module. Te innowacje są niezbędne do obsługi kolejnych generacji zadań AI, ale jednocześnie przyczyniają się do dalszego zwiększania globalnego zapotrzebowania na prąd.
De Vries-Gao zauważa, że TSMC ponad dwukrotnie zwiększyła swoje moce produkcyjne CoWoS w latach 2023-2024, lecz popyt ze strony czołowych producentów chipów, takich jak NVIDIA i AMD, wciąż przewyższa podaż. Do 2025 roku TSMC ma ponownie podwoić skalę produkcji, aby sprostać rosnącym wymaganiom rynku.
Prognozy: poziom zużycia prądu na skalę państwa
Jeśli obecny trend się utrzyma, całkowite zużycie energii przez systemy AI na świecie może osiągnąć nawet 23 gigawaty do końca bieżącego roku – to poziom zbliżony do średniego zapotrzebowania energetycznego całej Wielkiej Brytanii. Dla firm rozwijających zaawansowane platformy AI oraz dla państw chcących stabilizować swoje sieci energetyczne, rosnące potrzeby energetyczne sektora AI staną się wyzwaniem, którego nie sposób pominąć.
Rosnąca rola sztucznej inteligencji w transformacji przemysłu i rozwoju innowacji zwiastuje początek nowego etapu w relacjach między infrastrukturą cyfrową a zrównoważonym zarządzaniem energią.
Źródło: techspot

Komentarze