
Planeten als „Dämpfer“ der Sonne?
August 16, 2025
Wärmepumpenstrom für Eigenheimbesitzer: Wann es Sinn macht und was erforderlich ist
August 18, 2025Welche KI-Modelle besonders klimaschädlich sind
Große Unterschiede beim CO2-Fußabdruck: Eine neue Studie vergleicht 14 KI-Modelle im Hinblick auf ihren Stromverbrauch und die daraus resultierenden CO2-Emissionen. Das Ergebnis: Bestimmte Reasoning-Modelle verursachen bis zu 50-mal mehr Emissionen als einfache Sprach-KIs – bei gleichen Aufgaben.
Hoher Stromverbrauch durch Rechenleistung
Die Verbreitung generativer KI-Systeme wie ChatGPT, Gemini oder DeepSeek führt zu steigendem Energiebedarf. Laut aktuellen Schätzungen verbrauchen große Sprachmodelle (LLMs) weltweit rund 29,3 Terawattstunden pro Jahr – etwa so viel wie ganz Irland.
Forschende der Hochschule München, darunter Maximilian Dauner und Gudrun Socher, haben nun 14 lokal ausgeführte KI-Modelle getestet und dabei deren Energieverbrauch und CO2-Bilanz analysiert. Basis war ein CO2-Umrechnungsfaktor von 480 Gramm CO2 pro Kilowattstunde.
Unterschiede je nach Modellgröße und Frageart
Die getesteten KIs – darunter Llama-Modelle von Meta, Qwen von Alibaba und DeepSeek – mussten 500 Fragen aus Geschichte, Philosophie, Mathematik und Jura beantworten. Die Resultate zeigen: Große Modelle liefern präzisere Antworten, benötigen aber auch deutlich mehr Rechenleistung. Besonders energieintensiv sind sogenannte Reasoning-Modelle, die Aufgaben selbstständig zerlegen und reflektieren.
Ein Beispiel: Während einfache Modelle eine Mathematikfrage mit 10 Tokens beantworten konnten, erzeugte DeepSeek-R1 bis zu 14.187 Tokens für dieselbe Aufgabe. Diese hohe Tokenzahl spiegelt sich direkt im Stromverbrauch wider.
CO2-Kompromiss zwischen Präzision und Nachhaltigkeit
Die Emissionen steigen mit der Modellgröße:
- Qwen (7 Mrd. Parameter): 27,7 g CO2 für 1.000 Fragen
- DeepSeek-R1 (70 Mrd. Parameter): über 2.000 g CO2 bei 80 % Korrektheit
Reasoning-Modelle verursachen bei gleicher Rechenleistung bis zu 50-mal mehr CO2 als Standard-LLMs. So benötigt DeepSeek-R1 für 600.000 Nutzerfragen so viel Energie wie ein Flug von London nach New York – Qwen 2.5 könnte dafür dreimal so viele Fragen beantworten.
Auch die Fragestellung macht einen Unterschied
Symbolisch-abstrakte Aufgaben – etwa aus Mathematik oder Philosophie – sind deutlich rechenintensiver als faktenbasierte Fragen. Solche Prompts verursachen bis zu sechsmal höhere Emissionen als einfache Wissensabfragen.
Was heißt das für KI-Nutzer?
„Wer nachhaltiger mit KI umgehen will, sollte sich bewusst für sparsamere Modelle entscheiden – vor allem bei einfachen Aufgaben“, sagt Dauner. Auch kurze, präzise Prompts helfen. „Nutzer können die Emissionen deutlich senken, wenn sie auf kurze Antworten ohne langes Reasoning setzen.“
Die Forschenden mahnen zudem einen bewussteren Umgang mit KI an – insbesondere beim spielerischen oder sinnfreien Einsatz. Jeder Prompt hat einen Klimaeffekt, der sich durch Modellwahl und Fragestellung aktiv beeinflussen lässt.
Quelle: Frontiers in Communication (2025)
Studie: Dauner & Socher, Hochschule München
DOI: 10.3389/fcomm.2025.1572947