Navigatie overslaan
zoekenNPO
Uitgelichte afbeelding

ChatGPT kost ontzettend veel stroom: 'Willen we dit echt, en worden we er beter van?'

3 juni 2025 · 12:11

Update: 3 juni 2025 · 12:12

In dit artikel aan het woord

Stefan Buijsman
Stefan BuijsmanvinkTechniekfilosoof
"We moeten ons afvragen: willen we dit echt, en worden we daar beter van?"
Remy Gieling
Remy GielingvinkAI-expert
"Deze systemen kunnen helpen met oplossen van klimaatproblemen en het bedenken van nieuwe medicijnen."

In het kort

Gebruik jij ChatGPT vaak? Heel veel mensen doen dat: om een receptje te maken, een sollicitatiebrief te schrijven, of om grappige foto's te genereren. Dat kost ontzettend veel stroom. Een simpel vraagje aan ChatGPT kost miljarden berekeningen. Servers staan dag en nacht te ronken. Is het dat allemaal wel waard?

Wat denk jij?

Gebruik jij ChatGPT?

Aantal reacties: 0

Dit is de situatie

AI verbruikt 11 tot 20 procent van wereldwijde stroom datacenters

AI is handig en populair. Mensen gebruiken het om teksten te maken, vragen te beantwoorden of grappige foto’s te genereren, zoals bij de Barbie Box Challenge, of misschien heeft jouw collega je ook wel omgetoverd tot een Muppet met behulp van ChatGPT. Maar achter al die slimme systemen zit veel rekenkracht, en dat kost energie.

Misschien heb je wel al eens eerder gehoord dat AI heel veel water kost, maar het kost dus ook heel veel stroom. Een zoekopdracht via ChatGPT kost tien keer zoveel stroom als dezelfde vraag via Google.

Wetenschappers maken zich zorgen over de snelheid waarmee het stroomverbruik stijgt. Volgens een nieuw Nederlands onderzoek is AI nu al verantwoordelijk voor 11 tot 20 procent van het stroomverbruik van datacenters wereldwijd. Dat kan aan het eind van dit jaar oplopen tot de helft. In Nederland verwachten netbeheerders dat datacenters in 2050 tot wel 70 procent meer stroom nodig hebben dan nu. Het Internationaal Energieagentschap schat dat AI tegen 2030 meer stroom zal gebruiken dan heel Japan nu. Toch blijft het lastig om precies te weten hoeveel stroom het kost, want grote bedrijven zoals Meta en OpenAI geven daar weinig informatie over.

Volgens deskundigen moeten we slimmer omgaan met AI. Onderzoekers werken aan kleinere modellen die minder energie nodig hebben. Ook worden er zuinigere chips ontwikkeld. Maar experts waarschuwen dat we beter moeten nadenken over het gebruik van AI. Ze vinden dat mensen bewust moeten worden van het energieverbruik, bijvoorbeeld via duidelijke informatie of nieuwe regels.

Dit is de discussie

Wegen de AI-voordelen op tegen het enorme stroomgebruik?

Remy Gieling, AI-expert, vindt het stroomverbruik van AI-systemen gerechtvaardigd, omdat het de wereld heel erg kan gaan helpen. Maar er moet wel meer geïnvesteerd worden in stroom, zegt hij in Dit is de Dag (EO).

Afbeelding van Remy Gieling

Remy Gielingvink

AI-expert

"We moeten verder kijken dan wat AI nu kan. Op dit moment gebruiken we het vooral om een Sinterklaasgedicht te maken of snel een mailtje te schrijven. Maar in Amerika en China gaan de ontwikkelingen veel sneller. Daar wordt AI al ingezet in bijna elk bedrijfsproces. Overal waar nu nog een mens achter een toetsenbord zit, zal straks AI een rol spelen. Dat kost veel stroom. En ze gaan zelfs nog verder: binnen ongeveer duizend dagen willen ze algoritmes ontwikkelen die kunnen denken op het niveau van Albert Einstein. Dat is kunstmatige superintelligentie."

AI-systemen konden eerst vooral goed antwoorden geven, maar nog niet echt nadenken of redeneren. Dat is nu veranderd, stelt Gieling. Ze kunnen nu ook moeilijke dingen begrijpen en uitleggen. Daarnaast kunnen ze zelf nieuwe dingen maken. Zo heeft Google pas een nieuw AI-programma uitgebracht, Alpha Evolve, dat zelf nieuwe ideeën heeft bedacht. Daardoor werken de datacenters van Google nu bijna 1 procent zuiniger, zegt de AI-expert.

"In Nederland lopen we nog achter, maar in Amerika, China en andere landen is te zien dat er veel productiviteitswinst voor bedrijven te behalen valt. Ik had deze week nog een gesprek met een AI-opperhoofd van een grote verzekeringsmaatschappij. Die zei: bij onze programmeurs zie je 40% productiviteitswinst. (...) Met de integratie van AI, en de komst van zogeheten AI-agents, zie je dat ook mensen zonder technische kennis ermee kunnen werken."

Volgens Gieling is wat AI nu kan, nog maar een fractie van wat het in de toekomst kan.

"Waar het naartoe gaat is dat deze systemen volgens de grote techgiganten 24/7 in datacenters zullen gaan helpen met het oplossen van klimaatproblemen, het bedenken van nieuwe medicijnen. Ze zeggen: dat vraagt heel erg veel stroom, daar zijn ze ook open over. En zij roepen ook op: investeer nu in vredesnaam in een duurzame energievoorziening. Want uiteindelijk zullen de kosten van intelligentie gelijk staan aan de kosten van energie."

Techniekfilosoof Stefan Buijsman is kritisch: hij vraagt zich af in hoeverre AI-systemen nu echt kunnen redeneren.

Afbeelding van Stefan Buijsman

Stefan Buijsmanvink

Techniekfilosoof

"Het grootste wat ze nu echt heel erg goed kunnen, is dingen uit hun hoofd leren. En ze leren zoveel omdat ze het hele internet zien. Dat lijkt heel erg indrukwekkend, maar tegelijkertijd blijven ze fouten maken. ChatGPT is dit jaar juist meer fouten gaan maken dan vorig jaar, en ze weten niet precies hoe dat komt en kunnen er nog niet zoveel aan doen. Dus die beweging naar dat het straks ineens iets wat fantastisch alles kan oplossen - dat lijkt, als je naar de innovaties kijkt, helemaal nog niet zo hard te gaan."

Dat ook mensen die niet zo technisch onderlegd zijn makkelijk met AI kunnen werken, levert juist ook gevaren op, denkt Buijsman.

"Dat zie je ook bij programmeurs. Zij vragen aan ChatGPT: hoe moet ik mijn programma schrijven? En daar komt een hele mooi code uit. Die runnen ze dan, en vervolgens zitten er allemaal veiligheidslekken in, waardoor het toch niet goed werkt. Dus het levert juist ook weer heel veel extra kosten op."

De techniekfilosoof zou graag bewijs zien dat het toekomstbeeld dat Giesling schetst ook daadwerkelijk gaat gebeuren:

"Wat je eigenlijk wil, is dat er duidelijke regels komen over welke innovaties we wél en niet willen. Nu worden er soms zomaar besluiten genomen, zoals het bouwen van nog meer datacenters. Die gebruiken vaak veel water om de computers koel te houden en komen soms terecht in gebieden waar al een tekort aan water is. We moeten ons afvragen: willen we dit echt, en worden we daar beter van?"

Praat mee

Hoe voel jij je na het lezen van dit artikel? En wil je nog iets kwijt?

Meer weten?

Luister naar Dit is de Dag

In Dit is de Dag (EO) gaat Jan Willem Wesselink verder over dit onderwerp in gesprek. Beluister de uitzending hieronder als podcast. 

spotify

De weergave van Spotify vereist jouw toestemming voor social media cookies.

Toestemmingen aanpassen

Luister jij liever via een ander kanaal? Klik hier om het gesprek af te spelen op jouw favoriete podcast-app.

Dit maakten we ook
Dit is de dag

Dit artikel hoort bij het programma

Dit is de dag

Dit is de dag

Meest gelezen

Lees ook