Lesezeit: 2 Minuten

Energieverbrauch KI: Chancen und Herausforderungen

Künstliche Intelligenz (KI) treibt Innovationen voran, optimiert Prozesse und verändert ganze Industrien. Doch während KI-Modelle immer leistungsfähiger werden, steigt auch ihr Energieverbrauch rasant an. Rechenzentren, die riesige Mengen an Daten verarbeiten, benötigen enorme Mengen an Strom – oft mit erheblichen ökologischen Folgen. Der Energieverbrauch von KI wird zunehmend zu einem wichtigen Thema in der Diskussion um nachhaltige Technologien.

Wie energiehungrig ist KI wirklich? Welche Varianten gibt es und wie stehen diese beim Stromverbrauch da? In diesem Artikel beleuchten wir die Energieeffizienz und den Energieverbrauch von KI, diskutieren Herausforderungen und zeigen, welche Ansätze für eine umweltfreundlichere KI-Entwicklung bereits existieren.

KI verbessert Energieeffizienz

Auch wenn es nicht direkt das Thema des Blogeintrages ist, bietet künstliche Intelligenz neben ihrem eigenen Energieverbrauch von KI auch großes Potenzial, die Energieeffizienz in verschiedenen anderen Bereichen zu steigern.

Durch ihre Fähigkeit, komplexe Zusammenhänge zu analysieren, versteckte Muster zu erkennen und Prozesse zu optimieren, kann KI dazu beitragen, Ressourcen effizienter zu nutzen. In der Industrie hilft sie beispielsweise dabei, Maschinenlaufzeiten zu optimieren, den Energieverbrauch in Produktionsprozessen zu senken oder vorausschauende Wartungskonzepte zu entwickeln, um unnötigen Stromverbrauch und Ausfälle zu vermeiden. Auch in Gebäuden kann KI durch intelligente Steuerungssysteme den Energieeinsatz für Heizung, Kühlung und Beleuchtung anpassen und so den Gesamtverbrauch erheblich reduzieren.

Besonders in den dezentralen Stromnetzen der Zukunft wird KI eine Schlüsselrolle spielen. Mit der zunehmenden Integration erneuerbarer Energien wird das Energiesystem immer komplexer, da Wind- und Sonnenenergie wetterabhängig und schwer vorhersehbar sind. KI kann den Energieverbrauch in Echtzeit optimieren und hilft, Angebot und Nachfrage besser zu koordinieren. Durch intelligente Algorithmen lassen sich Energieflüsse besser steuern, wodurch Netzstabilität gewährleistet und erneuerbare Energien optimal eingesetzt werden können. So trägt KI nicht nur zur Optimierung einzelner Systeme bei, sondern könnte langfristig dazu beitragen, die gesamte Energieinfrastruktur nachhaltiger und effizienter zu gestalten.

Dazu gibt es einige aktuelle und auch ältere Untersuchungen, die zeigen, dass das Thema kein Hype ist, sondern sich in der aktiven Umsetzung befindet:

·       Roadmap Energieeffizienz 2045, BM für Wirtschaft und Klimaschutz

·       CORDIS EU Report zu Energieeffizienz (2020)

·       Frauenhofer: Künstliche Intelligenz für die integrierte Energiewende (2019)

·       Enercity: Energie sparen mit der Künstlichen Intelligenz?

Energieverbrauch von KI: Wie effizient sind die Systeme?

Trotz ihres Potenzials zur Energieeinsparung stellt sich die Frage, wie effizient KI selbst mit Energie umgeht. Besonders das Training großer Modelle erfordert enorme Rechenleistungen und damit erhebliche Mengen an Strom. Aber auch der laufende Betrieb – also die Nutzung trainierter Modelle – verbraucht Energie, insbesondere wenn KI in Echtzeitanwendungen oder groß angelegten Systemen eingesetzt wird. Der Energieverbrauch von KI bleibt eine Herausforderung, für die neue Ansätze erforderlich sind, um sowohl das Training als auch die Nutzung energieeffizienter zu gestalten.

Training von KI

Das Training von KI-Modellen ist eine der energieintensivsten Phasen im Lebenszyklus künstlicher Intelligenz. Hierbei werden riesige Mengen an Daten verarbeitet, analysiert und „eingedampft“, indem sie in mehrere Schichten zerlegt, bewertet und hinsichtlich ihrer Ähnlichkeit zu bereits Gelerntem eingeordnet werden. Diese Informationen werden anschließend in großen Datenbanken gespeichert, um später für Anfragen genutzt zu werden. Der hohe Rechenaufwand entsteht dadurch, dass Ähnlichkeiten nicht nur auf einer, sondern auf Millionen von Ebenen betrachtet werden. Dies bedeutet, dass Daten ständig verglichen, neu berechnet und aus den Datenbanken abgerufen werden müssen – ein Prozess, der enorme Rechenkapazitäten und damit viel Energie benötigt.

Um diesen Energieverbrauch zu senken, gibt es verschiedene Optimierungsstrategien. Manche Verfahren setzen auf effizientere Algorithmen, die den Trainingsprozess zeitlich verkürzen. Andere Modelle, wie DeepSeek, verlagern einen Teil der Rechenlast auf die spätere Nutzung, wodurch das Training energieeffizienter wird, die Abfragen aber aufwendiger sein können. Dennoch bleibt das Training eine der teuersten und energieintensivsten Komponenten von KI, und je nach gewähltem Ansatz verschiebt sich der Energieverbrauch zwischen Training und späterer Nutzung.

Dank der steigenden medialen Aufmerksamkeit und der zunehmenden Bedeutung von KI sind derzeit viele Forschungsbereiche in der Lage, zusätzliche Gelder für neue Entwicklungen zu sichern. In Deutschland ist die Fraunhofer-Gesellschaft ein bedeutender Akteur in der anwendungsnahen Forschung. Ein vielversprechender Ansatz aus dem Jahr 2024 ist das „Föderierte Lernen“ (Federated Learning, FL), bei dem die Datenverarbeitung dezentral erfolgt und erst später konsolidiert wird. Diese Technik kann den Energieverbrauch um bis zu 65 % reduzieren und trägt dazu bei, dass Europa in der KI-Forschung zu China und den USA aufschließt.

Dennoch findet der Großteil der Modellerstellung weiterhin außerhalb der EU statt. Ob die aktuellen politischen Spannungen dazu führen, dass Europa stärker in eigene KI-Infrastrukturen investiert, bleibt abzuwarten, die Chancen stehen aber gut.

Die Dimensionen des Rechenaufwands für das KI-Training lassen sich anhand aktueller Zahlen zu den verwendeten Chips beim Training der Top Modelle erkennen:

·       Grok (xAI von Elon Musk): ca. 100.000 Nvidia-Chips

·       ChatGPT (OpenAI): ca. 25.000 Chips

·       DeepSeek (High Flyer): angeblich nur ca. 2.000 Chips (hier gibt es noch Bedenken bzgl. der Korrektheit, aber es scheinen weit weniger als die 25.000 von OpenAI gewesen zu sein)

Während diese Entwicklung kurzfristig die Aktienkurse von Energieunternehmen und Nvidia belastet hat, ist sie langfristig ein wichtiger Schritt in Richtung umweltfreundlicherer KI. Allerdings besteht die Gefahr, dass Effizienzgewinne wieder durch immer größere Trainingsläufe zunichtegemacht werden, da leistungsfähigere Modelle auch mehr Rechenkapazität erfordern.

Energieverbrauch von KI: Wie effizient sind die Systeme?

Trotz ihres Potenzials zur Energieeinsparung stellt sich die Frage, wie effizient KI selbst mit Energie umgeht. Besonders das Training großer Modelle erfordert enorme Rechenleistungen und damit erhebliche Mengen an Strom. Aber auch der laufende Betrieb – also die Nutzung trainierter Modelle – verbraucht Energie, insbesondere wenn KI in Echtzeitanwendungen oder groß angelegten Systemen eingesetzt wird. Der Energieverbrauch von KI bleibt eine Herausforderung, für die neue Ansätze erforderlich sind, um sowohl das Training als auch die Nutzung energieeffizienter zu gestalten.

Nutzung von KI im Web

KI bietet mittlerweile eine Vielzahl an Nutzungsmöglichkeiten für Endnutzer, neben Helfern, wie ChatGPT gibt es viele andere im Internet angebotene Dienste, um z.B. Bilder oder ganze Videos zu generieren. Diese Dienste brauchen nicht unerhebliche Mengen an Strom und sind aus diesem Grund auch selten werbefinanziert. Diese Dienste finanzieren sich über zwei- bis dreistellige Monatsbeiträge der Nutzer und sind selbst damit oft nicht kostendeckend.

Im Hinblick auf die Energieeffizienz, ist hier durch Bündelung der Rechenkapazitäten in den Rechenzentren eine effiziente Berechnung möglich und durch die Nutzung der Hardware durch alle Kunden, ist die Hardware gut ausgelastet.

Wenn jemand sehr detailliert die Energieeffizienz berechnet, gehören auch die Zugriffe auf die Systeme in die Berechnung, da Funk- und Netzwerkgeräte ebenfalls Strom benötigen. Wenn die einzige Alternative die Übertragung des Modells auf das Gerät des Nutzers ist, ist zu erwarten, dass KI im Web die bessere Variante ist, da die übertragenen Daten im Schnitt über alle Nutzer kleiner sein werden als die Modelle, die einmalig auf alle Geräte übertragen werden müssen.

Nutzung von KI nahe dem Nutzer

Durch die immer potenter werdenden Mobiltelefone und die entsprechend ausgestatteten Computer rückt die Nutzung von KI näher an die Nutzer heran. Es gibt immer wieder neue Produkte, die die KI-Modelle auf den Geräten der Nutzer ausführen.

Das ist für die Betreiber der Lösungen wesentlich günstiger, da die Abfragekosten auf die Kunden umgelegt werden. Diese haben dann den Vorteil, dass die Daten der Abfrage die eigenen Geräte nicht verlassen müssen. Was für den Datenschutz ein großer Pluspunkt ist.

Damit dies funktioniert, müssen die Modelle aber auf den Geräten der Nutzer abgelegt werden. Die Modelle, die annähernd die Mindestqualität der “Onlinemodelle” erreichen, sind allerdings oft mehrere Gigabyte groß und benötigen viel Arbeitsspeicher für die Berechnung der Antwort.

Daher ist zu erwarten, dass in absehbarer Zeit nur eingeschränkte Modelle lokal ablaufen, weil diese weniger Speicher benötigen. Durch die Spezialisierung sind diese nicht so flexibel, sind aber wesentlich kleiner im Platz- und Speicherverbrauch.

Die Energieeffizienz der Geräte an sich ist insb. mit speziellen KI-Chips nicht schlecht. Aber Mobiltelefone werden den steigenden Strombedarf durch größere Energiespeicher ausgleichen müssen und Computer einfach mehr Strom benötigen, im Vergleich zu einer Abfrage über das Internet.

Wenn ein auf einem Gerät in verschiedenen Programmen KI lokal eingesetzt wird, dann werden über die Zeit etliche lokale Modelle auf dem Gerät den Speicher belegen. Das kann zu einem Problem werden und wird sich nur rentieren, wenn die lokale Nutzung z.B. gesetzlich vorgeschrieben oder zu bevorzugen ist, oder die KI so oft bzw. intensiv Verwendung findet, dass eine Nutzung von KI im Web nicht gut genug ist.

Fazit

Wie man sieht, KI ist und bleibt ein Grund für gestiegenen Energieverbrauch. Es gibt je nach Einsatzszenario verschiedene Möglichkeit zu steuern, wo die Energie eingesetzt wird.

Aus Sicht des Gesamtenergieverbrauches ist bei Modellen mit vielen Nutzern und Nutzungen zu hoffen, dass hier der Fokus auf das Training gelegt wird, um möglichst günstige Abfragen zu erreichen und bei sehr flexiblen Modellen mit unterschiedlichsten Einsatzgebieten wird der “Sweetspot” bei höheren Abfragekosten liegen, die dann aber flexibler oder qualitativ besser sind.

Unklar ist, ob den Entscheidern hier eine gesamtwirtschaftliche Betrachtung am Herzen liegt oder eine für die eigenen Bedürfnisse optimierten Lösung. Es ist zu erwarten, dass letzteres der häufigste Fall sein wird.

Analog zur Bewertung des Energieverbrauchs von Geräten, wäre es wünschenswert, wenn etwas Analoges in Zukunft für AI-Modelle ebenfalls zur Geltung kommt, damit Verbraucher in die Lage versetzt werden, hier besser informiert entscheiden zu können.

Übrigens: In diesem Artikel kam auch KI zum Einsatz, allerdings nur um den Text „etwas zu glätten“ und nicht um Inhalte zu erstellen.

Weiterführende Links:

·       Future Energy Lab: Energieeffziente KI (Projekt für ein energieeffizientes Modell)

·       IBM: Die Zukunft der KI und Energieeffizienz

·       Ingenieur.de: Wie viel Strom verbraucht ChatGPT?

·       BASIC thinking: "DeepSeek: China-KI verbraucht offenbar mehr Energie als angenommen"

·       Drivingeco: "Chinesische KI DeepSeek R1 verbraucht 10 bis 40 Mal weniger Energie und erschüttert den Markt: Einbruch der Branchenaktien"

Blogautor

Patrick Cornelißen
Softwarearchitekt ARS Computer und Consulting GmbH
Ihr Erfolg ist unser Ziel

Stehen Sie vor komplexen IT-Projekten? Mit unserer Expertise bieten wir Ihnen maßgeschneiderte Lösungen. Erfahren Sie mehr.

Werde Teil unseres Teams

Wir suchen ständig nach neuen Talenten. Für dich haben wir genau die richtige Stelle. Schau dir unsere offenen Positionen an.

Noch Fragen? Wir helfen Ihnen gerne!

Blog

KI für alle: Wirtschaftliche Chancen mit generativer KI

Generative KI schafft Chancen für alle: Von Bildung bis Jobsuche hilft sie, Barrieren abzubauen und Menschen auf ihrem Karriereweg zu unterstützen.

News

Webinar: Shaping the Future with AI - 5 AI Fuck-ups

Im Webinar beleuchten wir die Stolpersteine, die jedes Unternehmen auf dem Weg zur KI-Implementierung kennen sollte, und zeigen, wie vermeintliche Fehler zum entscheidenden Sprungbrett für Fortschritt werden können.

Blog 05.10.23

So meisterst du die Herausforderungen der Kundenerwartungen

Heute befassen wir uns mit der 6.These unserer D2C-Studie, die wir in Kooperation mit dem ECC Köln veröffentlicht haben. Die Studie fokussierte sich auf den Heim & Garten Sektor und untersuchte insgesamt sieben Thesen in Bezug auf Direktvertrieb. In diesem Beitrag schauen wir uns die These „Konsumenten haben hohe Erwartungen an ihren Onlinekauf bei Herstellern“ genauer an und überprüfen sie auf Gültigkeit.

Blog 12.12.22

Digitalisierung: Herausforderung für den Mittelstand

In unserem heutigen Podcast tauschen sich zwei gestandene Unternehmer des digitalen Zeitalters aus: synaigy-Geschäftsführer Joubin Rahimi und Digital Vikings-Mitbegründer Lars Rabe fachsimpeln zu Themen wie moderne Organisationsstruktur, den Sinn von OKRs oder einer noch immer seltenen Fehlerkultur in Unternehmen. So viel sei schon verraten, die beiden fanden in ihrer jeweiligen Unternehmensphilosophie überraschend viele Berührungspunkte.

Videokonferenz mit Google Meet
Blog 10.11.20

Die 3 häufigsten Herausforderungen im Homeoffice

Die größten Probleme im Homeoffice sind praktisch jedem bekannt, universelle Lösungen haben wir scheinbar aber keine gefunden. Schauen wir uns die Probleme mal konkret an.

Kompetenz

Barrierefreiheit als Chance: Ihr Weg zur digitalen Inklusion

Ab dem 28. Juni 2025 wird digitale Barrierefreiheit Pflicht! Mit TIMETOACT, Synaigy & Eye-Able® machen Sie Ihr Unternehmen zukunftssicher und inklusiv.

Event

Webcast: Chancen des Quantum Computing für Versicherer

Dieser Webcast liefert einen Einblick in das Thema Quantencomputer und dessen Stand der Technik. Behandelt wird das Potential dieser Technologie und wie man sich auf diesen sprichwörtlichen Quantensprung in der IT vorbereiten kann.

Aug 11
Presse 14.04.23

Fachbeitrag: ChatGPT- Chancen & Risiken für Unternehmen

Fachbeitrag in ZDNET zu Chancen und Risiken von ChatGPT in Unternehmen von Matthias Bauer, Teamlead Data Science bei X-INTEGRATE

Service

KI Governance

Die EU hat sich auf schärfere Regeln zur Nutzung von Künstlicher Intelligenz geeinigt. Ihre Auswirkungen und weitere wichtige Aspekte von "KI Governance" erfahren Sie hier.

Atlassian Cloud - Ready for Migration - Migrationschancen gezielt nutzen!
Webinar on demand

Ready for Atlassian Cloud – Chancen einer Migration nutzen

In diesem Webinar on demand zeigen wir Ihnen, unter welchen Bedingungen eine Atlassian Server-Cloud-Migration erfolgreich möglich ist, welche Hilfsmittel derzeit zur Verfügung stehen und welche Chancen sich für Unternehmen daraus ergeben können.

Event

Webcast: KI für Versicherer

Dr. Matthias Quaisser erläutert Ihnen praktische Projekterfahrung und Erfolgsfaktoren von KI und erzählt von fachliche Anwendungsfälle von KI bei Versicherern.

May 14
Presse 30.11.23

Fachbeitrag: KI für die Luftbildauswertung

Wir haben eine KI-basierte Software entwickelt, die befestigte Flächen aus Luftbildaufnahmen automatisiert bestimmt. Business Geomatics berichtet darüber.

Blog 24.10.24

So transformierst du dein Unternehmen mit KI

Viele reden über KI, aber nur wenige setzen wirklich schon konkrete Projekte um! Genau darum geht es in dieser insights!-Folge mit Oliver Hoeck, Gründer von Digital DNA.

Service 28.02.24

Eventreihe: KI Governance

Die EU hat sich auf schärfere Regeln zur Nutzung von Künstlicher Intelligenz geeinigt. Ihre Auswirkungen und weitere wichtige Aspekte von "KI Governance" beleuchten wir in unserer Eventserie.

Wissen 13.06.24

KI-gesteuerte Dokumentenverwaltung

In der heutigen Geschäftswelt, in der Daten in exponentiellen Mengen generiert werden, steht die effiziente Verwaltung und Verarbeitung von Informationen im Mittelpunkt jedes erfolgreichen Unternehmens. IBM, ein führendes Unternehmen im Bereich der digitalen Transformation, bietet mit der Content Platform Engine und dem Content Navigator eine umfassende Lösung zur Dokumentenverwaltung an. Doch wie lässt sich die Leistungsfähigkeit dieser Systeme durch künstliche Intelligenz (KI) noch weiter steigern? Ein innovativer Ansatz ist die Integration von WatsonX.AI, IBMs fortschrittlicher KI-Plattform, zur Generierung automatisierter Dokumentenzusammenfassungen, eine Funktion, die das Potenzial hat, die Art und Weise, wie Unternehmen Informationen verarbeiten und darauf zugreifen, grundlegend zu verändern.

Workshop

KI Workshops für Unternehmen

Ob Grundlagen der KI, Prompt-Engineering oder Potenzial-Scouting: Unser vielfältiges KI-Workshop Angebot bietet für jeden Wunsch die passenden Inhalte.

Event

KI basierte Kundenbetreuung für Versicherer

Im Webinar erfahren Sie, wie moderne Kundenbetreuung in der digitalisierten Welt aussieht. Watson Assistent hilft bei der Optimierung bestehender Lösungen. Dieser virtuelle KI-Assistent liefert Kunden schnelle, konsistente und akkurate Antworten über alle Kommunikations-Kanäle, -Plattformen, -Applikationen und Geräte hinweg.

Headerbild zur Logistik- und Transportbranche
Branche

KI & Digitalisierung für die Transport- und Logistikbranche

Digitalisierung und Transparenz der Prozesse sowie automatisierte Unterstützung bei der Optimierung können Logistikunternehmen helfen, den Spagat zwischen Kosten und Leistung besser zu bewältigen, um langfristig als wertvoller Partner der Wirtschaft zu agieren.

Event

Webcast: Regresspotenziale nutzbar mit KI

André Ullrich von der Roland Rechtsschutz AG erzählt Ihnen in einem Praxisbericht, wie Regresspotenziale mit KI nutzbar gemacht werden können.

Zur IT-Zoom Website
Presse 02.10.17

"Watson heißt nicht unbedingt KI"

In einem Kommentar auf IT-ZOOM beschreibt unser Geschäftsführer Wolfgang Schmidt, wie die X-INTEGRATE schon heute komplexe Prozesse mit Hilfe von Künstlicher Intelligenz optimiert.

Bleiben Sie mit dem TIMETOACT GROUP Newsletter auf dem Laufenden!