Published on

Czy sztuczna inteligencja pochłania za dużo energii? Analiza zużycia energii przez AI

Autorzy
  • avatar
    Imię
    Ajax
    Twitter

Rosnące zapotrzebowanie na energię w erze AI

Rozwój sztucznej inteligencji (AI) w ostatnich latach jest imponujący, jednak niesie za sobą również poważne wyzwania, w tym kwestię ogromnego zużycia energii. Niektórzy żartują, że AI zastąpi ludzi dopiero wtedy, gdy rachunki za prąd będą droższe od chleba, ale ten żart doskonale oddaje istotę problemu. Wysokie zapotrzebowanie na energię może stać się poważną przeszkodą w dalszym rozwoju tej technologii. Były inżynier Google, Kyle Corbitt, ujawnił, że Microsoft napotkał trudności z zasilaniem podczas trenowania modelu GPT-6.

Aby szkolić tak duże modele AI, inżynierowie Microsoftu pracują nad budową sieci InfiniBand, która połączy GPU rozmieszczone w różnych lokalizacjach. To skomplikowane przedsięwzięcie wynika z tego, że skoncentrowanie ponad 100 000 chipów H100 w jednym miejscu grozi przeciążeniem lokalnej sieci energetycznej i jej awarią.

Skąd tak duże zapotrzebowanie na energię? Prosta kalkulacja pokazuje skalę problemu. Nvidia podaje, że szczytowa moc jednego chipa H100 wynosi 700W, a więc 100 000 takich chipów zużywa 70 milionów watów. Specjaliści z branży energetycznej wskazują, że to tyle, ile produkuje mała elektrownia słoneczna lub wiatrowa. Do tego trzeba doliczyć energię zużywaną przez serwery i systemy chłodzenia. Skupienie tych wszystkich urządzeń w jednym miejscu generuje ogromne obciążenie dla sieci energetycznej.

AI a zużycie energii: wierzchołek góry lodowej

Artykuł w „The New Yorker” szacuje, że ChatGPT może zużywać ponad 500 000 kWh dziennie. Jednak, jak dotąd, zużycie energii przez AI jest mniejsze niż w przypadku kryptowalut i tradycyjnych centrów danych. Trudności, na które napotykają inżynierowie Microsoftu, pokazują, że rozwój AI jest ograniczony nie tylko przez energochłonność samej technologii, ale również przez infrastrukturę towarzyszącą i możliwości sieci energetycznej.

Międzynarodowa Agencja Energetyczna (IEA) w swoim raporcie podaje, że w 2022 roku globalne zużycie energii przez centra danych, sztuczną inteligencję i kryptowaluty wyniosło 460 TWh, czyli około 2% globalnego zużycia energii. IEA przewiduje, że w najgorszym scenariuszu do 2026 roku zużycie energii w tych sektorach osiągnie 1000 TWh, czyli tyle, ile zużywa cała Japonia.

Co ciekawe, obecnie energia przeznaczana bezpośrednio na rozwój AI jest znacznie mniejsza niż w przypadku centrów danych i kryptowalut. Nvidia, dominująca na rynku serwerów AI, dostarczyła w 2023 roku około 100 000 chipów, które zużywają rocznie około 7,3 TWh. Dla porównania, kryptowaluty w 2022 roku zużyły aż 110 TWh, co odpowiada zużyciu energii przez całą Holandię.

Chłodzenie: klucz do efektywności energetycznej

Efektywność energetyczna centrów danych jest mierzona za pomocą wskaźnika PUE (Power Usage Effectiveness), który określa stosunek całkowitej energii zużytej do energii zużytej przez obciążenie IT. Im bliżej 1 jest wartość PUE, tym mniej energii marnuje centrum danych. Raport Uptime Institute podaje, że w 2020 roku średnia wartość PUE dla dużych centrów danych wynosiła około 1,59. Oznacza to, że na każdą jednostkę energii zużytą przez sprzęt IT, dodatkowe 0,59 jednostki jest zużywane przez urządzenia pomocnicze.

Znaczna część dodatkowej energii w centrach danych jest przeznaczana na systemy chłodzenia. Badania pokazują, że systemy chłodzenia mogą zużywać nawet do 40% całkowitej energii centrum danych. Wraz z rozwojem technologii chipów, ich moc i gęstość w centrach danych rosną, co stawia coraz większe wymagania systemom chłodzenia. Jednak poprzez udoskonalanie projektów centrów danych można znacznie ograniczyć marnotrawstwo energii.

Wartości PUE różnią się w zależności od centrum danych, w zależności od systemu chłodzenia i konstrukcji. Raport Uptime Institute pokazuje, że w Europie wartość PUE spadła do 1,46, podczas gdy w regionie Azji i Pacyfiku ponad 10% centrów danych ma PUE powyżej 2,19.

Aby osiągnąć cele związane z oszczędzaniem energii i redukcją emisji, kraje na całym świecie podejmują różne działania. Na przykład Unia Europejska wymaga od dużych centrów danych instalowania urządzeń do odzyskiwania ciepła odpadowego. Rząd USA inwestuje w badania nad bardziej energooszczędnymi półprzewodnikami, a Chiny wprowadziły przepisy wymagające, aby centra danych od 2025 roku miały PUE nie wyższe niż 1,3, a także stopniowo zwiększały wykorzystanie energii odnawialnej, aby osiągnąć 100% do 2032 roku.

Wyzwania dla firm technologicznych

Wraz z rozwojem kryptowalut i AI, skala centrów danych największych firm technologicznych stale rośnie. Według IEA, w 2022 roku w USA było 2700 centrów danych, które zużywały 4% krajowej energii elektrycznej. Szacuje się, że do 2026 roku ten udział wzrośnie do 6%. Ze względu na coraz większy brak miejsca na wschodnim i zachodnim wybrzeżu USA, centra danych są przenoszone w głąb kraju, gdzie jednak dostawy energii mogą nie wystarczyć.

Niektóre firmy technologiczne próbują uniezależnić się od sieci energetycznej, kupując energię bezpośrednio z małych elektrowni jądrowych, ale wymaga to skomplikowanych procedur administracyjnych. Microsoft próbuje wykorzystać AI do pomocy w składaniu wniosków, a Google wykorzystuje AI do planowania zadań obliczeniowych w celu zwiększenia efektywności sieci energetycznej i zmniejszenia emisji dwutlenku węgla. Kiedy kontrolowana fuzja jądrowa stanie się dostępna, pozostaje na razie niewiadomą.

Zmiany klimatu: dodatkowe wyzwanie

Rozwój AI wymaga stabilnej i potężnej sieci energetycznej, ale wraz z coraz częstszymi ekstremalnymi zjawiskami pogodowymi, wiele regionów staje się coraz bardziej podatnych na awarie sieci. Ocieplenie klimatu powoduje, że ekstremalne zjawiska pogodowe występują coraz częściej, co nie tylko zwiększa zapotrzebowanie na energię, ale również obciąża sieć energetyczną i bezpośrednio wpływa na infrastrukturę energetyczną. Raport IEA wskazuje, że w 2023 roku udział energii wodnej w globalnej produkcji energii spadł do najniższego poziomu od 30 lat, poniżej 40%, ze względu na susze, niedostateczne opady i przedwczesne topnienie śniegu.

Gaz ziemny, często uważany za pomost do energii odnawialnej, również budzi obawy co do stabilności w ekstremalnych warunkach zimowych. W 2021 roku fala mrozów uderzyła w Teksas, powodując masowe przerwy w dostawie prądu, a niektórzy mieszkańcy byli pozbawieni energii elektrycznej przez ponad 70 godzin. Jedną z głównych przyczyn tej katastrofy było zamarznięcie rurociągów gazowych, co doprowadziło do zatrzymania elektrowni gazowych.

North American Electric Reliability Corporation (NERC) przewiduje, że w latach 2024-2028 w USA i Kanadzie ponad 3 miliony osób będzie narażonych na coraz większe ryzyko przerw w dostawie prądu. Aby zapewnić bezpieczeństwo energetyczne i jednocześnie realizować cele związane z oszczędzaniem energii, wiele krajów uważa elektrownie jądrowe za rozwiązanie przejściowe. Na konferencji klimatycznej ONZ (COP 28) w grudniu 2023 roku, 22 kraje podpisały wspólną deklarację, w której zobowiązały się do zwiększenia mocy produkcji energii jądrowej do 2050 roku do trzykrotności poziomu z 2020 roku. Jednocześnie, wraz z rozwojem energetyki jądrowej w Chinach, Indiach i innych krajach, IEA przewiduje, że do 2025 roku globalna produkcja energii jądrowej osiągnie historyczny rekord.

Raport IEA podkreśla: „W zmieniających się warunkach klimatycznych, kluczowe staje się zwiększenie różnorodności źródeł energii, poprawa zdolności przesyłania energii między regionami i przyjęcie bardziej odpornych metod wytwarzania energii”. Zabezpieczenie infrastruktury energetycznej jest istotne nie tylko dla rozwoju technologii AI, ale również dla bezpieczeństwa i dobrobytu społeczeństwa.