DeepSeek: Weniger Energie, mehr Effizienz in der KI?
6. Februar 2025Das chinesische Unternehmen DeepSeek hat einen Coup gelandet. Ende Januar brachte es einen neuen KI-Chatbot auf den Markt, der nach eigenen Angaben erheblich billiger ist als die Systeme der Konkurrenz von Tech-Giganten aus den USA wie Microsoft und Google. Dabei sorgten nicht nur die laut Betreiber viel geringeren Entwicklungskosten für Aufsehen, sondern auch der deutlich kleinere Energiebedarf im Betrieb. Zeigt DeepSeek also, dass der KI-Sektor in Zukunft deutlich umweltschonender sein könnte, als bisher gedacht?
Das Training und der Betrieb von KI-Modellen verbraucht enorme Mengen Energie. Einsparungen könnten daher große Auswirkungen auf die Umwelt und das Klima haben. Bisher ging man davon aus, die wachsende Nachfrage nach KI und der Ausbau von Rechenzentren werde in den kommenden Jahren riesige Mengen an Energie benötigen. Schon heute entfallen ein bis zwei Prozent des weltweiten Stromverbrauchs auf die mehr als 8000 Rechenzentren, so die Internationale Energieagentur IEA. "KI hat einen enormen Appetit auf Energie", stellt Paul Deane fest. Er ist Dozent für saubere Energiezukunft am University College Cork, Irland.
Wie viel Energie braucht KI?
Von der Suche nach Heilmitteln gegen Krebs bis zum Kampf gegen den Klimawandel - der Hype um die Einsatzmöglichkeiten von KI ist groß. Das gelte auch für die Prognosen rund um das Thema Energiebedarf von KI, sagt Deane. Kurz bevor DeepSeek seinen KI-Chatbot vorstellte, kündigte US-Präsident Donald Trump mit dem neu gegründeten KI-Unternehmen Stargate das "mit Abstand größte KI-Infrastrukturprojekt der Geschichte" an. Das Unternehmen erklärte, es werde ab sofort 100 Milliarden Dollar (etwa 95 Milliarden Euro) in Infrastrukturanlagen wie Rechenzentren investieren.
"Viele große Unternehmen bauen sehr große Rechenzentren, um damit sehr große KI-Algorithmen zu betreiben", erläutert Deane. Wie das Finanzdienstleistungsunternehmen Goldman Sachs schätzt, könnte der Strombedarf von Rechenzentren bis 2030 um 160 Prozent steigen und dann etwa vier Prozent des weltweiten Stroms benötigen. Schon jetzt verbraucht eine einzige Frage an ChatGPT von OpenAI fast zehnmal so viel Strom wie eine Google-Suche.
Für Datenzentren sei der schnelle Zugang zu mehr Strom entscheidend, so Deane. "KI wird sicherlich sehr gut mit Solarenergie und Batterien harmonieren." Das sei auch in vielen Regionen der Welt möglich. Allerdings werde es noch einige Zeit dauern, bis dafür die Infrastruktur ausgebaut sei.
Microsoft investiert derweil in kleine Kernreaktoren, um damit in Zukunft seine Rechenzentren zu füttern. Bis zur Marktreife ist es allerdings noch ein weiter Weg. "In den USA gibt es derzeit ein großes Interesse daran, KI mit billigem Gas zu koppeln, wofür die Infrastruktur relativ schnell gebaut werden kann", sagt Deane. Laut US-Medienberichten ist dies in einem der Stargate-Rechenzentren in Texas der Fall. Das Verbrennen fossiler Brennstoffe wie Gas treibt jedoch auch die Treibhausgasemissionen in die Höhe, die den Planeten weiter aufheizen. Die Emissionen durch Rechenzentren könnten sich nach den Berechnungen von Goldman Sachs binnen fünf Jahren verdoppeln.
Warum braucht die KI so viel Wasser?
Für die Masse an extrem schnellen Berechnungen künstlicher Intelligenz werden außerdem extrem leistungsfähige Mikrochips und eine Menge Wasser benötigt. Für die Herstellung eines einzigen solcher Chips werden mehr als 8300 Liter Wasser benötigt. Zusätzlich geben KI-Chips geben enorm viel Wärme ab, wodurch zusätzlich große Mengen Wasser zur Kühlung von Server und Anlagen notwendig sind. Unter "Inferenzen", wie hier in der Grafik dargestellt, versteht man einzelne Schlussfolgerungen, die ein trainiertes KI-Modell zieht. Dazu gehört zum Beispiel die Interpretation Daten oder Texten.
Eine Studie der Universität von California unter dem Titel "Making AI less thirsty" (KI weniger durstig machen) fand 2023 heraus, dass das Training eines großen Sprachmodells wie Chat GPT bis zu drei Millionen Liter Wasser benötigt. Schon zehn bis 50 Anfragen an den Chatbot können bis zu einem halben Liter Wasser verbrauchen, je nach Standort. Bittet man ein KI-Modell, eine Arbeits-E-Mail zu schreiben oder ein Bild von einem Einhorn auf dem Mars zu erstellen, ist das so, als würde man einen halben Liter Wasser wegschütten. Je aufwendiger die Berechnung, etwa Bilder statt Text, desto höher der Energie- und Wasser-Bedarf.
Wenn man fossile Brennstoffe, Kernkraftwerke oder Wasserkraftwerke für den Betrieb von Rechenzentren einsetzt, "verbraucht das ebenfalls großen Mengen Wasser", so Shaolei Ren, Professorin für Elektro- und Computertechnik an der University of California in Riverside. KI könnte 2027 weltweit bereits mehr als 6,6 Milliarden Kubikmeter Wasser jährlich verbrauchen, so Ren, Co-Autorin der Studie. Das ist etwa sechsmal mehr als Dänemarks Verbrauch heute.
Rechenzentren benötigen viel Wasser zur Kühlung von Servern. Ihr Bau in dürregeplagten Regionen kann die Versorgung noch stärker belasten.
Kann KI umweltfreundlicher sein?
"Wir können den Geist nicht zurück in die Flasche stecken, aber wir können sicherlich versuchen, den Geist besser, sauberer und effizienter zu machen", gibt sich Paul Deane vom UCC überzeugt. Dafür müsse die Energie effizienter genutzt werden. Das würde bedeuten, mehr erneuerbare Energien mit Batterien für die Stromversorgung von Rechenzentren zu bauen. Oder Rechenzentren dort zu bauen, wo es bereits reichlich Sonnen- und Windenergie gibt.
Die Rechenzentren für das Training von KI-Modellen könnten auch nur tagsüber betrieben werden, um die Energie der Sonne nutzen zu können. Für die Nutzung von KI wird Strom allerdings rund um die Uhr gebraucht. Dafür bräuchte es große Energiespeicher, die mit Erneuerbaren aufgeladen werden könnten - zum Beispiel Batterien.
Die Nutzung der überschüssigen Wärme von Rechenzentren für die Fernwärmeversorgung für nahe gelegene Orte könnte ebenfalls dazu beitragen, die Energie an einigen Standorten effizienter zu nutzen, so Deane.
Wie lässt sich der Wasserverbrauch der KI verringern?
Was den Wasserverbrauch angeht, so müssen KI-Unternehmen laut Ren transparenter machen, wie viel sie überhaupt verbrauchen, und bei der Auswahl von Rechenzentrumsstandorten das Klima und die jeweiligen Ressourcen berücksichtigen. "In dürregefährdeten Gebieten oder Regionen müssen wir wirklich darauf achten, wie viel Wasserdruck wir auf die lokalen Gewässer ausüben", so Ren.
Für die Senkung des Wasserverbrauchs gibt es verschiedene Möglichkeiten. Dazu gehört die Mehrfachnutzung von Wasser, die Wiederaufbereitung von Wasser, das Sammeln von Regenwasser oder auch die Nutzung von Kühlsystemen mit geschlossenen Kreisläufen. Ähnlich wie bei der Energieversorgung können Trainingseinheiten für KIs für Zeiten geplant werden, wenn der Wasserverbrauch niedrig ist oder in Rechenzentren mit besserer hoher Wassereffizienz arbeiten können.
Die Technologie von DeepSeek könnte bedeuten, dass die bisherigen Vorhersagen über den steigenden Ressourcenverbrauch von KI zu hoch sind und einige der geplanten Rechenzentren vielleicht gar nicht gebraucht werden. Das Unternehmen "verbraucht viel weniger Ressourcen, und die Leistung liegt auf Augenhöhe mit dem neuesten Modell von OpenAI. Das ist wirklich beeindruckend", so Ren.
DeepSeek behauptet, seine Technologie sei deshalb so effizient, weil es keinen Zugang zu den leistungsstarken KI-Chips des US-Unternehmens Nvidia hatte und stattdessen erfinderisch sein musste. Wenn DeepSeek dem Hype gerecht wird, könnten neue Rechenzentren effizienter arbeiten. Einige Abfragen an die KI könnten dann sogar direkt auf Smartphones laufen und gar keine Rechenzentren mehr benötigen.
Dennoch könnte die potenziell effizientere Technologie zu einem sogenannten Jevons-Paradoxon führen, warnen Experten. Dies bedeutet, dass Effizienzgewinne aufgefressen werden, weil sie zu einer erhöhten Nachfrage führen, während die Kosten für die Nutzung der Technologie sinken.
Dieser Artikel wurde aus dem Englischen adaptiert.
Redaktion: Anke Rasper