Künstliche Intelligenz (KI) ist in aller Munde und auch bei IT-Firmen hoch im Kurs. So hat etwa Microsoft kürzlich nicht nur seinen auf GPT 4.0 basierenden KI-Helfer "Copilot" für Windows freigegeben, sondern nach Milliardeninvestitionen in OpenAI nun auch 15 Millionen Euro in das französische Start-up Mistral AI gesteckt. Aber auch Konkurrenten wie Google, Apple oder Amazon treiben ihr Engagement kräftig voran.

Diese Entwicklung hat allerdings ihren Preis. Und der besteht unter anderem aus stetig steigendem Energiebedarf. Eine Rechnung dazu hat nun der Datenwissenschaftler Alex de Vries von der niederländischen Nationalbank angestellt. Er kommt darin zu dem Schluss, dass allein der Betrieb von ChatGPT, dem nach wie vor populären Chatbot von OpenAI, einen Energieverbrauch in der Höhe von 17.000 US-Haushalten verursacht.

Verbrauch auf dem Level größerer Länder

Die US Energy Information Administration nennt für US-Haushalte einen Verbrauchsdurchschnitt von 899 Kilowattstunden (kWh) pro Monat, woraus sich auf 30 Tage ein Schnitt von 29,97 kWh pro Tag ergibt. ChatGPT käme auf Basis dieser Zahl auf knapp 510.000 kWh täglich. Tendenz steigend.

Ein großer Roboter steht vor einem Kernkraftwerk. Dieses Symbolbild wurde mit der Bilder-KI Midjourney generiert.
Ein großer Roboter steht vor einem Kernkraftwerk. Dieses Symbolbild wurde mit der Bilder-KI Midjourney generiert.
DER STANDARD / Pichler / Midjourney

Bei einer konstanten Entwicklung läge der gesamte KI-Sektor bis 2027 bei einem Jahresverbrauch von 85 bis 134 Terawattstunden pro Jahr. Damit würde man nicht nur ein halbes Prozent der weltweiten Energieerzeugung beanspruchen, sondern auch zahlreiche Nationalstaaten überholen und sich (Stand 2021 und 2022) komfortabel im obersten Fünftel irgendwo zwischen Finnland und der Ukraine einordnen.

Dabei gibt es auch noch Potenzial für Entwicklungen, die den Verbrauchsanstieg weiter beschleunigen. Würde Google, wie geplant, tatsächlich den generativen KI-Output für jede Anfrage bei seiner Webansuche liefern, könnte allein das den Stromverbrauch des Konzerns auf 29 Terawattstunden jährlich steigern. De Vries sieht gegenüber dem "New Yorker" ein "fundamentales Ungleichgewicht zwischen dieser Technologie und ökologischer Nachhaltigkeit".

Déjà-vu

Mit der Einschätzung ist er nicht allein. OpenAI-Chef Sam Altman erklärte zuletzt, dass man mehr auf den Energiebedarf der Technologie schauen müsse, da man zu seiner Deckung einen "Durchbruch" benötige. Als Möglichkeiten nennt er Fusionskraftwerke oder "radikal günstigere Solarkraftwerke plus Speicher", und zwar in einer Größenordnung, mit der aktuell noch niemand plane.

Auch andere Forschung deutet auf ein Verbrauchsproblem hin, auch was die Kühlung der Rechenzentren betrifft, in denen ChatGPT, Bard und Konsorten laufen. Laut einer Untersuchung der University of California wird für eine Anfrage an ChatGPT das Äquivalent von einer Flasche Wasser benötigt.

Eine politische Lösung hat de Vries nicht parat. Kurz- und mittelfristig sei wohl nicht mehr umsetzbar als Transparenzauflagen, die die Unternehmen zwingen, ihren Ressourcenverbrauch für KI-Betrieb offenzulegen. Für ihn ist das auch ein Déjà-vu. Es habe schon lange gedauert, bis man in Sachen Kryptowährungen ein entsprechendes Bewusstsein schaffen und mehr Transparenz erwirken konnte, daher sei er enttäuscht, dass das bei KI noch nicht gelungen ist. "Wir haben gesehen, was Kryptomining anrichten kann, und wir haben es einfach vergessen." (gpi, 13.3.2024)