Wie künst­li­che In­tel­li­genz nicht zum Kli­ma­trei­ber wird: In­ter­na­ti­o­na­les Leucht­turm­pro­jekt zeigt L?­sun­gen auf

 |  NachhaltigkeitForschungTransferKünstliche IntelligenzPressemitteilungPaderborn Center for Parallel Computing (PC2)Fakult?t für Elektrotechnik, Informatik und MathematikInstitut für Informatik

Universit?t Paderborn leitet die Entwicklung smarter Chips für mehr Energieeffizienz

Künstliche Intelligenz (KI) ist heute schon fest in den Alltag vieler Menschen integriert. Sie navigiert, rechnet, erkl?rt, übersetzt – und verbraucht dabei enorm viel Energie. Zudem ist der CO2-Aussto? sehr hoch. Denn bei KI-Modellen müssen riesige Datenmengen und Informationen verarbeitet werden, was gro?e Rechenleistungen sowie leistungsstarke Grafikprozessoren (GPUs) oder Zentralprozessoren (CPUs) erfordert. Im KI-Leuchtturmprojekt ?eki“[1] hat ein Forschungsteam unter der Leitung der Universit?t Paderborn an der Verbesserung der Energieeffizienz von KI-Systemen gearbeitet und Methoden entwickelt, mit denen der Energieverbrauch von KI um bis zu 90 Prozent gesenkt werden kann. Dafür kommen statt GPUs und CPUs spezielle Computerchips zum Einsatz. Das Bundesministerium für Umwelt, Klimaschutz, Naturschutz und nukleare Sicherheit hat das Vorhaben mit rund 1,5 Millionen Euro über einen Zeitraum von drei Jahren gef?rdert.

Optimierung der Energieeffizienz von KI durch FPGAs

Tiefe neuronale Netze (Englisch: ?Deep Neural Networks“, kurz: DNNs) sind elementarer Bestandteil von KI und werden in einem aufwendigen Prozess mit sehr gro?en Datenmengen trainiert. Deshalb sind sie für einen zunehmenden Anteil der Rechenlast und damit für den Energieverbrauch sowie CO2-Aussto? in Rechenzentren verantwortlich. Prof. Dr. Marco Platzner vom Institut für Informatik an der Universit?t Paderborn hat das Projekt ?eki“ geleitet und erkl?rt: ?Tiefe neuronale Netze sind eine Art KI, die nach dem Prinzip des menschlichen Gehirns funktioniert. Der ,tiefe‘ Teil bezieht sich darauf, dass die Netze viele Schichten haben, die Daten verarbeiten und Muster erkennen, Bilder analysieren sowie Sprache verarbeiten.“ Nachdem die DNNs mit riesigen Datenmengen trainiert worden sind, kommen die Modelle, die aus dem Prozess resultieren, zum Einsatz. In der Regel werden dafür GPUs oder CPUs genutzt, die jedoch eine geringe Energieeffizienz aufweisen. Daher hat das Projektteam eine L?sung erarbeitet: Mithilfe von frei programmierbaren Chips, sogenannten ?Field-Programmable Gate Arrays“ (FPGAs), l?sst sich die Energieeffizienz von KI-Systemen für die DNN-Berechnung optimieren. 

Messen – Automatisieren – Optimieren: Hürden und Erfolge des Projektes 

Zum Vergleich: Herk?mmliche Prozessoren führen feste Befehlss?tze aus, w?hrend die Schaltung bei FGPAs selbst angepasst werden kann. So entsteht eine Art ma?geschneiderte Hardware. Der Vorteil: Je nach Anwendung verbrauchen die Chips weniger Energie und rechnen schneller als Grafikprozessoren. Der Nachteil: Sie sind aufwendiger zu programmieren. Doch auch diese Hürde ist überwunden. Denn die Forscher*innen des Fachgebiets Technische Informatik besch?ftigen sich schon lange gemeinsam mit dem Paderborn Center for Parallel Computing (PC2) der Universit?t Paderborn mit dem energieeffizienten Rechnen mithilfe von FPGAs. ?Die Firma AMD/Xilinx hatte bereits das Open-Source-Programm FINN für neuronale Netze auf FPGAs entwickelt. In enger Zusammenarbeit konnten wir unsere Erfahrungen einbringen, um FINN noch besser zu machen und den Schwerpunkt auf Energieeffizienz zu legen“, erkl?rt Prof. Platzner. 

Um den Energiebedarf zu senken, haben die Wissenschaftler*innen die KI-Modelle vereinfacht, indem sie u. a. unn?tige Verbindungen innerhalb der KI entfernt und dafür gesorgt haben, dass komplexe Funktionen effizient laufen. DNNs wurden dabei auch auf mehrere FGPAs verteilt. Ein weiterer Schwerpunkt war, verl?ssliche Methoden zu entwickeln, um den Energiebedarf einzelner Komponenten vorhersagen zu k?nnen. Das ist den Forscher*innen durch die Erweiterung von FINN gelungen. Zudem konnten sie den Verbrauch kompletter Inferenzl?ufe messen und mit anderen Technologien vergleichen. Ein Inferenzlauf ist der Moment, in dem ein KI-Modell seine Kenntnisse anwendet, um auf neue Daten zu reagieren. ?Besonders erfreulich ist, dass wir eine erh?hte Energieeffizienz bis zum Zehnfachen gegenüber der Verwendung von Grafikprozessoren erreichen konnten. Das senkt nicht nur den Stromverbrauch, sondern auch – je nach Strommix – den Aussto? von CO2-Emissionen. Da der Einsatz von KI stetig w?chst, wird in Zukunft der Energiebedarf von DNNs zu einem wichtigen Umweltfaktor“, resümiert Prof. Platzner. 

Der Code, den die Wissenschaftler*innen entwickelt haben, steht in FINN offen zur Verfügung. Zudem bietet das PC2 der Universit?t Paderborn 伟德体育_伟德国际手机1946-在线*平台@s an, um Interessierte in die Nutzung der Methoden zur DNN-Abbildung auf FGPA-Systemen und zur Energieanalyse einzuführen. 

Neben der Universit?t Paderborn waren die Hochschule Hamm-Lippstadt, die Fachhochschule Südwestfalen, das HPC-Unternehmen MEGWARE (Chemnitz) und die AMD Research Labs in Irland am Projekt beteiligt. Weitere Informationen gibt es auf der Projektwebseite.


[1] Vollst?ndiger Projektname: ?eki-App: Energieeffiziente Künstliche Intelligenz im Rechenzentrum durch Approximation von tiefen neuronalen Netzen für Field-Programmable Gate Arrays“

Foto (Universit?t Paderborn, Thorsten Hennig): Das System des Supercomputers ?Otus“ der Universit?t Paderborn ist auf bis zu 100 FPGA-Karten erweiterbar und dann eines der st?rksten FPGA-Systeme weltweit.

Kontakt

business-card image

Prof. Dr. Marco Platzner

Fakult?t für Elektrotechnik, Informatik und Mathematik

E-Mail schreiben +49 5251 60-5250