ChatGPT beantwortet jeden Tag Milliarden von Fragen und treibt dabei Rechenzentren auf Hochbetrieb. Wer genauer hinsieht, erkennt schnell den verborgenen Energieverbrauch von Chatbots, der lange wie eine Fußnote im Hintergrund wirkte.
Schätzungen zufolge verschlingt jede ChatGPT-Anfrage rund 0,189 Kilowattstunden Strom, deutlich mehr als ein klassischer Websearch. Auf Milliarden täglicher Prompts hochgerechnet, ergibt sich ein beträchtlicher Strombedarf je Anfrage, der die Umweltbilanz generativer KI belastet und Stromnetze ganzer Regionen weltweit spürbar auf neue Weise fordert.
wie groß ist der energiehunger pro anfrage?
Laut einer Auswertung von BestBrokers stützt sich die Debatte auf eine Studie des AI Lab der University of Rhode Island, die für eine ChatGPT-Anfrage 18,9 Wh beziehungsweise 0,0189 kWh ansetzt – deutlich mehr als eine Google-Suche mit rund 0,3 Wh.
Auf den aktuellen Nutzungsstand hochgerechnet, ergeben sich bei über 2,5 Milliarden Prompts pro Tag rund 47,2 Millionen kWh täglicher Bedarf, im Jahr etwa 17,23 TWh. Ein Teil davon hängt von der Leistungsaufnahme pro Prompt, der Effizienz von Rechenzentren und der tatsächlichen GPU-Auslastung bei Inferenz ab.
vergleich mit ländern und metropolen : von Puerto Rico bis New York
Erweitert BestBrokers die Schätzung auf 17,23 TWh im Jahr, landet ChatGPT auf dem Niveau ganzer Staaten. Die Energiemenge entspricht dem jährlichen Verbrauch von Puerto Rico oder Slowenien und liegt im Stromverbrauch im Ländervergleich über Ländern wie Georgien, Kenia, Litauen, Costa Rica, Mongolei, Lettland und Luxemburg.
BestBrokers beziffert außerdem, wie lange diese Menge Strom verschiedene Volkswirtschaften versorgen könnte: China rund 15 Stunden, die USA 1 Tag und 10 Stunden, Indien 3 Tage und 2 Stunden. Legt man den Energiebedarf New York zugrunde, ließe sich die Metropole 113 Tage lang speisen, ein eindrucksvolles Tage äquivalent Stromversorgung-Szenario.
Die Debatte über den Energiehunger großer Sprachmodelle zeigt, dass Effizienzgewinne allein nicht reichen, solange die weltweite Nutzung Tag für Tag neue Rekorde erreicht.
Alan Goldberg, Datenanalyst bei BestBrokers
kostenrechnung und folgen für stromnetze und emissionen
Ausgehend von 17,228 Milliarden kWh Jahresverbrauch und einem durchschnittlichen US-Gewerbestrompreis von 0,141 Dollar pro kWh im September 2025 kalkuliert BestBrokers Energiekosten von rund 2,42 Milliarden Dollar pro Jahr. Die dafür genutzte Stromkostenberechnung bezieht sich allein auf den Betrieb von ChatGPT, andere OpenAI-Dienste sind darin nicht enthalten.
Die täglich benötigten 47,2 Millionen kWh würden theoretisch ausreichen, alle US-Haushalte mit durchschnittlich 29 kWh Tagesverbrauch für mehr als viereinhalb Tage zu versorgen oder rund 238 Millionen E-Autos mit 72,4 kWh Akku zu laden. Daraus ergeben sich Fragen zur langfristigen Belastung der Stromnetze sowie zum wachsenden CO2-Fußabdruck der KI.
methodik und annahmen hinter den berechnungen
BestBrokers legt seiner Analyse mehrere öffentlich verfügbare Studien zugrunde. Erst im nächsten Schritt werden die verwendeten Datenquellen und Annahmen sichtbar: Ausgangspunkt sind 810 Millionen wöchentlich aktive ChatGPT-Nutzende, die im Mittel 22 Fragen stellen; daraus ergeben sich über 2,5 Milliarden Anfragen pro Tag.
Für die eigentliche Energierechnung nutzt BestBrokers die vom AI Lab der University of Rhode Island genannte Kennzahl von 18,9 Wh pro Anfrage. Kombiniert mit den genannten Nutzungszahlen pro Woche und einer daraus abgeleiteten Wh pro Anfrage Schätzung resultieren rund 17,23 TWh pro Jahr, wobei OpenAI bisher keine eigenen, detaillierten Verbrauchsdaten veröffentlicht.
