Universität Paderborn

03/24/2026 | Press release | Distributed by Public on 03/24/2026 08:37

Wie künst­li­che In­tel­li­genz nicht zum Kli­ma­trei­ber wird: In­ter­na­ti­o­na­les Leucht­turm­pro­jekt zeigt Lö­sun­gen auf

Universität Paderborn leitet die Entwicklung smarter Chips für mehr Energieeffizienz

Künstliche Intelligenz (KI) ist heute schon fest in den Alltag vieler Menschen integriert. Sie navigiert, rechnet, erklärt, übersetzt - und verbraucht dabei enorm viel Energie. Zudem ist der CO2-Ausstoß sehr hoch. Denn bei KI-Modellen müssen riesige Datenmengen und Informationen verarbeitet werden, was große Rechenleistungen sowie leistungsstarke Grafikprozessoren (GPUs) oder Zentralprozessoren (CPUs) erfordert. Im KI-Leuchtturmprojekt "eki"[1] hat ein Forschungsteam unter der Leitung der Universität Paderborn an der Verbesserung der Energieeffizienz von KI-Systemen gearbeitet und Methoden entwickelt, mit denen der Energieverbrauch von KI um bis zu 90 Prozent gesenkt werden kann. Dafür kommen statt GPUs und CPUs spezielle Computerchips zum Einsatz. Das Bundesministerium für Umwelt, Klimaschutz, Naturschutz und nukleare Sicherheit hat das Vorhaben mit rund 1,5 Millionen Euro über einen Zeitraum von drei Jahren gefördert.

Optimierung der Energieeffizienz von KI durch FGPAs

Tiefe neuronale Netze (Englisch: "Deep Neural Networks", kurz: DNNs) sind elementarer Bestandteil von KI und werden in einem aufwendigen Prozess mit sehr großen Datenmengen trainiert. Deshalb sind sie für einen zunehmenden Anteil der Rechenlast und damit für den Energieverbrauch sowie CO2-Ausstoß in Rechenzentren verantwortlich. Prof. Dr. Marco Platzner vom Institut für Informatik an der Universität Paderborn hat das Projekt "eki" geleitet und erklärt: "Tiefe neuronale Netze sind eine Art KI, die nach dem Prinzip des menschlichen Gehirns funktioniert. Der ,tiefe' Teil bezieht sich darauf, dass die Netze viele Schichten haben, die Daten verarbeiten und Muster erkennen, Bilder analysieren sowie Sprache verarbeiten." Nachdem die DNNs mit riesigen Datenmengen trainiert worden sind, kommen die Modelle, die aus dem Prozess resultieren, zum Einsatz. In der Regel werden dafür GPUs oder CPUs genutzt, die jedoch eine geringe Energieeffizienz aufweisen. Daher hat das Projektteam eine Lösung erarbeitet: Mithilfe von frei programmierbaren Chips, sogenannten "Field-Programmable Gate Arrays" (FPGAs), lässt sich die Energieeffizienz von KI-Systemen für die DNN-Berechnung optimieren.

Messen - Automatisieren - Optimieren: Hürden und Erfolge des Projektes

Zum Vergleich: Herkömmliche Prozessoren führen feste Befehlssätze aus, während die Schaltung bei FGPAs selbst angepasst werden kann. So entsteht eine Art maßgeschneiderte Hardware. Der Vorteil: Je nach Anwendung verbrauchen die Chips weniger Energie und rechnen schneller als Grafikprozessoren. Der Nachteil: Sie sind aufwendiger zu programmieren. Doch auch diese Hürde ist überwunden. Denn die Forscher*innen des Fachgebiets Technische Informatik beschäftigen sich schon lange gemeinsam mit dem Paderborn Center for Parallel Computing (PC2) der Universität Paderborn mit dem energieeffizienten Rechnen mithilfe von FPGAs. "Die Firma AMD/Xilinx hatte bereits das Open-Source-Programm FINN für neuronale Netze auf FPGAs entwickelt. In enger Zusammenarbeit konnten wir unsere Erfahrungen einbringen, um FINN noch besser zu machen und den Schwerpunkt auf Energieeffizienz zu legen", erklärt Prof. Platzner.

Um den Energiebedarf zu senken, haben die Wissenschaftler*innen die KI-Modelle vereinfacht, indem sie u. a. unnötige Verbindungen innerhalb der KI entfernt und dafür gesorgt haben, dass komplexe Funktionen effizient laufen. DNNs wurden dabei auch auf mehrere FGPAs verteilt. Ein weiterer Schwerpunkt war, verlässliche Methoden zu entwickeln, um den Energiebedarf einzelner Komponenten vorhersagen zu können. Das ist den Forscher*innen durch die Erweiterung von FINN gelungen. Zudem konnten sie den Verbrauch kompletter Inferenzläufe messen und mit anderen Technologien vergleichen. Ein Inferenzlauf ist der Moment, in dem ein KI-Modell seine Kenntnisse anwendet, um auf neue Daten zu reagieren. "Besonders erfreulich ist, dass wir eine erhöhte Energieeffizienz bis zum Zehnfachen gegenüber der Verwendung von Grafikprozessoren erreichen konnten. Das senkt nicht nur den Stromverbrauch, sondern auch - je nach Strommix - den Ausstoß von CO2-Emissionen. Da der Einsatz von KI stetig wächst, wird in Zukunft der Energiebedarf von DNNs zu einem wichtigen Umweltfaktor", resümiert Prof. Platzner.

Der Code, den die Wissenschaftler*innen entwickelt haben, steht in FINN offen zur Verfügung. Zudem bietet das PC2 der Universität Paderborn Workshops an, um Interessierte in die Nutzung der Methoden zur DNN-Abbildung auf FGPA-Systemen und zur Energieanalyse einzuführen.

Neben der Universität Paderborn waren die Hochschule Hamm-Lippstadt, die Fachhochschule Südwestfalen, das HPC-Unternehmen MEGWARE (Chemnitz) und die AMD Research Labs in Irland am Projekt beteiligt. Weitere Informationen gibt es auf der Projektwebseite.

[1] Vollständiger Projektname: "eki-App: Energieeffiziente Künstliche Intelligenz im Rechenzentrum durch Approximation von tiefen neuronalen Netzen für Field-Programmable Gate Arrays"

Universität Paderborn published this content on March 24, 2026, and is solely responsible for the information contained herein. Distributed via Public Technologies (PUBT), unedited and unaltered, on March 24, 2026 at 14:37 UTC. If you believe the information included in the content is inaccurate or outdated and requires editing or removal, please contact us at [email protected]