En enkelt forespørgsel kan bruge langt mere energi, end mange er klar over.
Lige nu læser andre
Rigtig mange har fået øjnene op for, hvor meget man kan bruge AI til i hverdagen.
Den mest populære model, ChatGPT, havde i slutningen af 2025 800 aktive ugentlige brugere, og OpenAI har oplyst, at ChatGPT håndterer over 2,5 milliarder prompts om dagen på verdensplan.
Det kan være alt fra små spørgsmål om paratviden og madlavning til store forespørgsler på billede- og videogenerering.
Selvom, at det som bruger ikke virker til at gøre den store forskel, hvad man spørger om, så viser en ny undersøgelse, at energiforbruget fra AI svinger markant, alt efter hvad den bliver bedt om.
Det skriver flere medier, herunder YLE og TechChrunch.
Læs også
IEEE Spectrum beskriver, at et ofte citeret gennemsnit på 0,34 watt-timer pr. forespørgsel stammer fra en udtalelse fra OpenAI’s direktør Sam Altman uden dokumentation, mens andre vurderinger estimerer, at komplekse forespørgsler med de mest avancerede modeller kan ligge over 20 watt-timer.
Variationen handler blandt andet om, hvor længe modellen skal regne, hvor meget tekst den skal producere, og om opgaven kræver mere computerkraft pr. token.
Hugging Face-forskere har over for MIT Technology Review beskrevet, at en fem sekunders AI-video kan kræve omkring 3,4 millioner joule, hvilket er på linje med at køre en mikrobølgeovn i omtrent en time eller cykle lange stræk på en elcykel.
Køling af datacentre kræver vand, og et studie omtalt af IE Insights anslår, at 20 til 50 spørgsmål til en stor sprogmodel kan svare til omkring en halv liter vand, primært til køling.
Forbrugeren kan sjældent vælge, hvilken energimix en forespørgsel rammer. Erfaringer fra USA viser desuden, at datacentre kan lægge pres på lokale vandressourcer, som i Newton County i Georgia, hvor naboer har beskrevet problemer med brønde i forbindelse med et Meta-projekt.