OpenAI-Chef Sam Altman hat sich in seinem Blog erstmals konkret zum Ressourcenverbrauch von ChatGPT geäußert - zumindest in groben Zahlen. Laut Altman verbraucht eine durchschnittliche ChatGPT-Abfrage rund 0,34 Wattstunden Strom und 0,000085 Gallonen Wasser - letzteres entspricht etwa 32 Millilitern pro Anfrage. Klingt überschaubar? Nur auf den ersten Blick.
OpenAI selbst sprach Ende 2024 von rund einer Milliarde Anfragen täglich. Rechnet man das hoch, ergibt das einen täglichen Stromverbrauch von 340.000 Kilowattstunden - genug, um eine mittelgroße Kleinstadt über den Tag zu bringen. Der Wasserbedarf liegt bei rund 322.000 Litern pro Tag. Und dabei ist unklar, ob die Zahl der Anfragen seitdem nicht längst gestiegen ist. Wahrscheinlich schon.
Was Altman unter einer „durchschnittlichen“ Anfrage versteht, bleibt offen. Auch fehlen Quellen oder technische Details zu seiner Rechnung. Dass er ausgerechnet den Vergleich mit einer Sekunde Backofenlaufzeit oder einer sparsamen Glühbirne bemüht, wirkt bemüht harmlos - angesichts der bekannten Kritik am massiven Ressourcenhunger von KI-Modellen.
Besonders der Wasserverbrauch sorgt in der Branche seit Längerem für Kritik. Wie viel Wasser eine einzelne KI-Abfrage tatsächlich schluckt, hängt stark vom Standort des Rechenzentrums ab. Gekühlt wird meist mit Wasser - und nicht jeder Standort ist klimatisch oder ökologisch ideal dafür geeignet.
Während Altman behauptet, die „Kosten der Intelligenz“ würden sich langfristig dem Strompreis annähern, bleibt die Frage, wer diese Kosten am Ende wirklich trägt: das Klima, die Infrastruktur - oder doch einfach der User?
Kommentare (0)