Geestig was het zeker, die twee ogenschijnlijk zo tegengestelde berichten. Kenner Erwin Blom kopte in zijn mooie nieuwsbrief ‘AI in de praktijk’ Gebruikt AI echt zoveel stroom en water? Dat is al het prototype van een retorische vraag. En beloofde direct tegenspraak voor “de meest wilde verhalen”. En daar ging het…
“Een jaar lang 100 ChatGPT vragen per dag verbruikt evenveel energie als 10 km met de auto rijden, 5 warme douches of 5 uur tv kijken. Da’s niet veel.” En waterverbruik door datacentra: “Dan zie je dat 10 AI-vragen niet in verhouding staan tot een minuut onder de douche of een keer de wc doorspoelen.”
Nog eentje van Erwin, een antwoord van NotebookLM van Google: “Voor een gemiddelde Amerikaan zou 100 prompts per dag het dagelijkse energieverbruik met slechts ongeveer 1 procent verhogen. Deze toename is gelijk aan het 6 minuten minder lang laten draaien van een wasdroger of het 18 minuten minder lang laten draaien van een airconditioner.”
Ook het totale energieverbruik van ChatGPT, geschat op 3 GWh per dag, vormt “een minuscuul deel van het totale dagelijkse energieverbruik ter wereld…0,0006 procent”. Dus: “Zelfs met verwachte groei zullen chatbots naar verwachting een zeer klein deel uitmaken van het wereldwijde energieverbruik vergeleken met activiteiten zoals videostreaming.”
Alex de Vries-Gao; AI energieslurpers
Stijn Bronzwaer beschreef tegelijkertijd in NRC onderzoek van Alex de Vries-Gao (Vrije Universiteit, De Nederlandsche Bank) die veel moois over energieverbruik van crypto en AI publiceert op zijn site Digiconomist. Conclusie: “Kunstmatige intelligentie (AI) wordt in hoog tempo de grootste energieverbruiker binnen de wereldwijde digitale infrastructuur.”
In zijn nieuwste onderzoek, dat deze week gepubliceerd is in Joule, een academisch tijdschrift over energie van Elsevier, laat Alex zien dat AI-systemen eind 2024 al verantwoordelijk waren voor 11-20 procent van het totale verbruik van datacenters, exclusief crypto mining. Einde 2025 zou dat snel richting 50 procent gaan, meer dan Bitcoin-mining vergt.
“Dit overtreft de huidige vraag naar stroom voor het delven van cryptomunten en staat gelijk aan twee keer de stroom die nodig is om Nederland draaiende te houden.” Dit blijven overigens vrij ruwe schattingen, zo geeft De Vries-Gao toe. Zo zou de efficiency van AI-gebruik kunnen toenemen, zo heeft de komst van het Chinese DeepSeek al laten zien.
Aanbieders van AI, zoals Microsoft, OpenAI en X praten volgens De Vries-Gao liever niet over dit soort cijfers. Google was volgens hem het enige grote techbedrijf dat onthulde dat AI goed was voor 10-15 procent van haar totale energieverbruik in de jaren 2019-2021. “Sinds ChatGPT de AI-hype begon, hebben we nooit meer zulke cijfers gezien. Daardoor blijft het vrijwel onmogelijk om een goed inzicht te krijgen in het werkelijke energieverbruik van AI.”
Hoe heeft De Vries-Gao dat dan zelf gedaan? Hij zegt zich te beroepen op productiecijfers van halfgeleiders van partijen als Nvidia en TSMC, (Chinese) analistenrapporten en transcripten van openbare gesprekken met analisten van de grote techbedrijven bij kwartaalresultaten.
Hij concludeert: “Deze groei botst met andere maatschappelijke ambities, zoals het behalen van klimaatdoelstellingen en het terugdringen van het totale energieverbruik. Effectieve beleidsreacties vereisen echter eerst dringende transparantie van een veelal gebrekkig transparante industrie.”
Immers, de AI Act van de EU voorziet niet in verplichte rapportage over energieverbruik, dus blijft dit grotendeels in duister gehuld volgens De Vries-Gao. Wel heeft Google in februari 2025 een crisis in energievoorziening door AI in de VS voorspeld.
IEA-cijfer: Nederland ongunstig
Geen aandacht in Nederlandse media kreeg – vreemd genoeg - een recent rapport van het energieagentschap IEA over AI en het verwachte energiegebruik. Volgens deze prognose zal de wereldwijde vraag naar elektriciteit van datacenters tegen 2030 meer dan verdubbelen, tot ongeveer 945 terawattuur (TWh); iets meer dan het totale elektriciteitsverbruik van Japan op dit moment. AI zal de belangrijkste drijvende kracht achter deze stijging zijn: de vraag naar elektriciteit als gevolg van AI-gebruik zal tegen 2030 naar verwachting ruim verviervoudigen.
Datacenters waren goed voor ongeveer 1,5 procent van het wereldwijde elektriciteitsverbruik in 2024, of 415 terawattuur (TWh). De Verenigde Staten hadden het grootste aandeel in het wereldwijde elektriciteitsverbruik van datacenters in 2024 (45 procent), gevolgd door China (25 procent) en Europa (15 procent).
In de Verenigde Staten zijn datacenters goed voor bijna de helft van de groei van de vraag naar elektriciteit tussen nu en 2030. Dit betekent straks meer elektriciteitsverbruik voor datacenters dan voor de productie van aluminium, staal, cement, chemicaliën en alle andere energie-intensieve goederen samen.
China en de Verenigde Staten zijn samen goed voor 80 procent van de wereldwijde groei tot 2030. Het verbruik van elektriciteit voor datacenters in totaal neemt in de VS toe met 130 procent, in Europa met 70 procent, en in China met 17 procent.
Opwekking van hernieuwbare energie zal naar verwachting met ruim 450 TWh toenemen om aan de vraag naar datacenters tot 2035 te voldoen. Redelijk schone energiebronnen als aardgas zijn ook nodig (tot 175 TWh), en kernenergie draagt ongeveer evenveel bij om aan de vraag van datacenters te voldoen.
Nederland ongunstig
Nederland wordt ook met name genoemd, met de langste periode om een datacenter van de grond te krijgen, namelijk 10 jaar. Ook scoort Nederland het hoogste wereldwijd met de stijgende kosten voor congestie op het elektriciteitsnet. Deze twee feiten zijn voor het vestigen van nieuwe datacenters bepaald ongunstig.
Een blik op de bijlages in dit uitstekende rapport leert dat, in GW gerekend, capaciteit aan stroomverbruik van datacenters in Europa van 16 naar 27 stijgt tussen 2024 en 2030, minder dan de mondiale groei van bijna 100 naar 226. Dit zijn voorspellingen. Zo staat er voor het Midden-Oosten een heel lage groei terwijl bijvoorbeeld Amazon net een overeenkomst sloot met Saoedi-Arabië voor bouw van datacenters.
Aardig detail: “De hardware- en software-efficiëntie van AI-modellen verbetert snel. We schatten het bevragen van een AI-model momenteel op ongeveer 2 watt-uur voor het genereren van taal, minstens het dubbele dan voor DeepSeek-R1 en ongeveer 25 keer zoveel als voor het genereren van een korte video.”
MIT-onderzoek
Technology Review van het beroemde MIT in Boston publiceert een nieuwe serie onderzoeken naar energieverbruik door AI. Het intro relativeert de geruststelling van Erwin Blom: “De uitstoot van individuele AI-query's voor tekst, afbeeldingen en video's lijkt klein, tot je optelt wat de industrie niet bijhoudt en bedenkt waar het nu naartoe gaat.”
Er zijn immers concrete aanwijzingen voor een gigantische uitbereiding van de capaciteit aan datacentra:
Overigens bevestigt de onderzoekserie van MIT de geheimzinnigheid over het energieverbruik voor AI-toepassing door Big Tech, zoals door De Vries-Gao vastgesteld. Immers, er worden wel steeds investeringsplannen bekendgemaakt, zoals door Google, Microsoft, Apple, OpenAI en energiebedrijven voor de woestijn van Nevada, maar de mate van energieverbruik en mogelijk grote problemen met wateronttrekking zijn ongewis. Wel zet Google in op meer luchtkoelingstechnologie, wat minder water en meer elektriciteit vergt.
Volgens prognoses zal in 2028 meer dan de helft van de elektriciteit die naar Amerikaanse datacenters gaat, worden gebruikt voor AI. Op dat moment zou AI alleen al evenveel elektriciteit per jaar kunnen verbruiken als 22 procent van alle huishoudens in de VS.
Nu is dat nog beperkt, en verlieslatend. Naar schatting kostte het trainen van OpenAI's GPT-4 meer dan 100 miljoen dollar en verbruikte het 50 GWh aan energie; nog beperkt tot de hoeveelheid stroom voor San Francisco voor slechts drie dagen.
Berekening van een Meta-bevraging
Onderzoekers van de University of Michigan houden een ML.Energy leaderboard bij met ondermeer de energie die een opdracht bij een AI-bot vergt, gemeten naar ingezette hardware. MIT Review deed een specifiek onderzoek met open-source model Llama van Meta.
Een tekst-prompt, zoals het maken van een reisroute voor Istanbul of uitleg over kwantumcomputing, vergt ongeveer 57 joules per antwoord nodig, of het dubbele inclusief aanvullende dingen zoals koeling. Dit is heel weinig, net zo veel als een meter fietsen op een e-bike of om een magnetron een 0,1 seconde te laten werken.
Inzet van de beste optie voor een tekst-prompt bij Llama heeft echter 50 keer meer parameters nodig voor grondiger antwoorden en dan verbruik je ineens bijna 7.000 joules in totaal, voor elk antwoord: evenveel als 400 meter op een e-bike of acht seconden magnetron.
Het grootste model dat is getest had 400 miljard parameters, maar andere modellen zoals DeepSeek met 600 miljard parameters en GPT-4 met naar schatting meer dan 1 biljoen parameters zijn nog groter.
Het genereren van een standaard afbeelding (1024 x 1024 pixels) met Stable Diffusion 3 Medium telt 2 miljard parameters en vergt 1.140 joule aan energie van de chips en het dubbel in totaal: 2.300 joule en met gevraagde verbetering van het beeld 4.400 joule. Dat staat gelijk aan 5,5 seconde op een magnetron, dus minder dan het grootste tekstmodel.
Conclusies: geen AI-schaamte
Doorberekening van maatschappelijke kosten proberen de techgiganten zo veel mogelijk te ontlopen, wat in de VS momenteel uitstekend lukt. Zo zijn de belastingregels van Nevada ongekend gunstig en het slijmen bij de regering-Trump door Big Tech had ook het bezweren van federale belastingen als doel, niet enkel meer vrijheid voor sociale media.
Enthousiastelingen in AI-gebruik staan veelal liever niet stil bij de barre feiten over energieverbruik en doorberekening van kosten, bijvoorbeeld van de maatschappelijke lasten in de vorm van nieuwe belastingen. De inzet van AI gaat juist het klimaatprobleem helpen oplossen, menen zij.
Bovendien ontbreekt er nog een marktmodel met kosten en opbrengsten voor gebruikers en aanbieders. Dus niemand laat nu een AI-opdracht achterwege vanwege mogelijke klimaatschade, AI-schaamte op die grond bestaat niet.