KI-Update – ein heise-Podcast: KI-Update Deep-Dive: Der wahre Preis einer KI-Anfrage
Erste konkrete Messungen zeigen: KI-Modelle verbrauchen je nach Aufgabe dramatisch unterschiedlich viel Energie - von 1,4 bis 717 Gramm CO2 pro 500 Fragen.
KI-Update – ein heise-Podcast
33 min read1774 min audioIn dieser Episode (übersetzt: "Energieverbrauch generativer KI - Wie klimaschädlich ist ChatGPT?") spricht Isabel Grünewald mit Maximilian Dauner von der TU München über dessen Studie zum Energieverbrauch generativer KI. Das 30-minütige Gespräch geht der Frage nach, wie viel CO2 verschiedene KI-Modelle konkret verbrauchen und welche Faktoren dabei eine Rolle spielen.
### Reasoning-Modelle verbrauchen bis zu 80-mal mehr CO2
Die überraschendste Erkenntnis der Studie sei, dass sogenannte Reasoning-Modelle wie DeepSeek extrem viel mehr Energie verbrauchen würden als herkömmliche Modelle. Während einfache Modelle mit 7 Milliarden Parametern für 500 Multiple-Choice-Fragen nur 1,4 Gramm CO2-Äquivalent benötigten, verbrauchte DeepSeek für dieselbe Aufgabe 717 Gramm. "Das ist schon ein ordentlicher Sprung, einfach aufgrund dessen, dass er zum Beispiel bei diesen mathematischen Fragen einfach viele, sehr, sehr, sehr, sehr viele Tokens generiert hat", erklärt Dauner.
### Mathematische Aufgaben treiben den Energieverbrauch in die Höhe
Besonders energieintensiv seien mathematische und abstrakte Aufgaben, da diese Modelle zum "Nachdenken" brächten. "Für sehr simple Fragen" wie Geschichtsfragen würden bereits kleine Modelle ausreichen, während "Mathe oder abstrakte Algebra und Highschool-Mathematik" den Reasoning-Prozess aktivierten und damit den Energieverbrauch drastisch erhöhten.
### Höflichkeit kostet Millionen Dollar
Die Länge der generierten Antworten beeinflusse den Energieverbrauch erheblich. Dauner bestätigt Sam Altmans Aussage, dass "Bitte und Danke" zu ChatGPT "mehr als eine Million Dollar" koste: "Je mehr Wörter generiert werden, desto höher wird dann auch, oder desto mehr CO2 wird freigesetzt." Seine Empfehlung: "Antworten in Stichpunkten, Antworten in zwei Sätzen, halte dich kurz und präzise."
### Standort des Rechenzentrums entscheidend für CO2-Bilanz
Der tatsächliche CO2-Ausstoß hänge stark vom Standort der Server ab. Das Training von GPT-3.5 hätte in einem amerikanischen Rechenzentrum 700.000 Liter Wasser verbraucht, "in einem asiatischen Datencenter wäre der Faktor 3- oder 4-mal so hoch gewesen", so Dauner. Diese Standortabhängigkeit mache pauschale Aussagen über den Energieverbrauch schwierig.
### Nutzer haben kaum Einfluss auf Modellwahl
Als Verbraucher:in habe man "wenig Einfluss" darauf, welches Modell im Hintergrund laufe. Bei Perplexity oder Google nehme man "halt das, was da gerade läuft". Dauner sieht die Lösung in intelligenten Algorithmen, die automatisch kleinere Modelle für einfache Fragen auswählen könnten.
## Einordnung
Das Gespräch präsentiert wichtige Forschungsergebnisse in einem informativen, aber unkritischen Rahmen. Dauner erklärt seine Methodik transparent und räumt Limitationen seiner Studie ein - etwa dass nur kleinere Modelle bis 72 Milliarden Parameter getestet werden konnten, nicht die großen kommerziellen Modelle. Problematisch ist jedoch die weitgehend technikoptimistische Grundhaltung: Zwar werden konkrete Energieverbräuche diskutiert, aber eine kritische Einordnung des exponentiell wachsenden Energiehungers der KI-Industrie fehlt. Die Diskussion bleibt auf individuelle Verhaltensänderungen und technische Optimierungen fokusiert, während strukturelle Fragen ausgeblendet werden: Brauchen wir wirklich KI für jede Suchanfrage? Sind die versprochenen Produktivitätssteigerungen den massiven Umweltkosten wert? Dauners Hinweis, dass KI auch bei wichtiger Forschung helfe, wirkt wie eine pauschale Rechtfertigung ohne differenzierte Abwägung von Nutzen und Schaden. Die Moderatorin hakt an den entscheidenden Stellen nicht nach und überlässt die Deutungshoheit weitgehend dem Wissenschaftler. Trotz dieser Schwächen liefert die Episode wertvolle Einblicke in bislang wenig erforschte Aspekte des KI-Energieverbrauchs und konkrete Handlungsempfehlungen für Nutzer:innen.