KI verstehen: Effiziente Künstliche Intelligenz - Wie IBM KI-Chips stromsparender machen will

IBM-Expertin erklärt, wie neue Chip-Technologien den explodierenden Strombedarf von KI-Rechenzentren bis 2030 bremsen sollen.

KI verstehen
1739 min audio
Im NDR-Podcast "KI verstehen" erklärt IBM-Technologiechefin Heike Riel die Herausforderungen des explodierenden Strombedarfs von KI-Rechenzentren und mögliche Lösungsansätze. Der Podcast behandelt sowohl die technischen Aspekte energieeffizienter KI-Hardware als auch die gesellschaftlichen Folgen des KI-Booms. ### Der Strombedarf von KI-Rechenzentren explodiere dramatisch Bis 2030 könnte sich der weltweite Energieverbrauch von KI-Rechenzentren vervierfachen. Riel erklärt: "Das Training großer KI-Modelle verbraucht bereits heute so viel Strom wie ganze Städte." Besonders das Training komplexer Sprachmodelle treibe den Energiebedarf in astronomische Höhen. Diese Entwicklung stelle eine massive Herausforderung für die Klimaziele dar. ### Neue Prozessor-Architekturen sollen Effizienz revolutionieren IBM entwickle spezielle KI-Chips, die deutlich weniger Energie verbrauchen würden als herkömmliche Prozessoren. "Wir arbeiten an neuromorphen Chips, die das menschliche Gehirn nachahmen", erläutert Riel. Diese könnten theoretisch um den Faktor 1000 effizienter sein als aktuelle Hardware. Der Ansatz orientiere sich an biologischen Strukturen, die mit minimalem Energieaufwand komplexe Berechnungen durchführten. ### Analoge Berechnungen könnten digitale Systeme ablösen Statt binärer Null-Eins-Berechnungen setze IBM auf analoge Verfahren, die kontinuierliche Werte verarbeiteten. "Analoge Chips können bestimmte KI-Aufgaben mit einem Bruchteil des Energieaufwands lösen", betont die Technologiechefin. Dieser Paradigmenwechsel erfordere jedoch völlig neue Programmierungsansätze und Hardware-Designs. ### Quantencomputing biete langfristige Perspektiven Für komplexeste KI-Anwendungen könnte Quantencomputing eine Lösung darstellen. Riel erklärt: "Quantencomputer könnten bestimmte maschinelle Lernverfahren exponentiell beschleunigen." Allerdings stehe diese Technologie noch am Anfang und sei für praktische Anwendungen noch nicht ausgereift. ## Einordnung Der Podcast überzeugt durch eine sachliche, technisch fundierte Diskussion eines hochaktuellen Problems. Riel argumentiert als Industrievertreterin erwartungsgemäß lösungsorientiert, ohne die Dimension der Herausforderung zu verharmlosen. Ihre Expertise wird durch konkrete Zahlen und Entwicklungsbeispiele untermauert. Kritisch ist anzumerken, dass alternative Ansätze - etwa die Begrenzung des KI-Wachstums oder regulatorische Eingriffe - kaum thematisiert werden. Die Diskussion folgt dem technologieoptimistischen Paradigma, wonach Effizienzsteigerungen das Wachstumsproblem lösen können, ohne die Rebound-Effekte zu diskutieren. Gesellschaftliche Fragen nach der Notwendigkeit aller KI-Anwendungen bleiben ausgeblendet. Dennoch liefert das Gespräch wertvolle Einblicke in den aktuellen Stand der Forschung und macht die technischen Lösungsansätze verständlich. Für alle, die sich über energieeffiziente KI-Hardware informieren wollen, ist dies eine empfehlenswerte Folge mit fundierten Expertinnen-Einschätzungen.