Nachhaltige KI – von Visionen zur Praxis
Durch den Hype um immer größere KI-Modelle mit prognostiziert doppelt-exponentiellem Zuwachs des Energieverbrauchs öffnet sich ein Gelegenheitsfenster fundamentaler Pfadentscheidungen: Für nachhaltige KI müssen aktuelle Ansätze effizienter werden und neue in die Anwendung kommen. Hochwertige Daten, optimierte und transparente Modelle sowie nachhaltige Rechenzentren und Open Source sind dafür essenziell.
Nicht zuletzt dank der Initiativen aus dem Fünf-Punkte-Programm "Künstliche Intelligenz für Umwelt und Klima" des BMUV sind nachhaltige KI und ihre Anwendung für Nachhaltigkeit inzwischen keine Nischenthemen mehr. Vom politischen über den öffentlichen Diskurs bis hin zur Praxis ist seit der Vorstellung der Umweltpolitischen Digitalagenda viel passiert und das Bewusstsein für Probleme und mögliche Lösungen deutlich gewachsen. Aktuell befinden wir uns in einem besonderen Gelegenheitsfenster für Pfadentscheidungen darüber, welche KI uns künftig begleitet, wie energie- und ressourceneffizient sie arbeitet, wessen Interessen sie dient und welche positiven wie negativen Auswirkungen sie auf Menschen und Umwelt haben kann. Dies umso mehr, da Fachkreise inzwischen aus guten Gründen KI als Infrastruktur bezeichnen und Risiken nicht-nachhaltiger Pfadabhängigkeiten und Lock-In-Effekte betonen. Auch ist es wichtig, begrifflicher Unschärfe im Diskurs zu nachhaltiger KI wie im KI-Diskurs zu begegnen, in dem seit Dekaden Science Fiction und aktuelle Möglichkeiten und Grenzen durcheinander gebracht werden. Am Anfang jeder KI-Anwendung stehen Daten und somit ist Datenpolitik auch KI-Politik – besonders für Nachhaltigkeit.
Daten als Gemeingut teilen und nutzen
Daten spielen nicht nur zur Auswahl geeigneter KI-Modelle und für deren Parametrisierung eine wichtige Rolle, auch die Ergebnisqualität hängt von der Verfügbarkeit und Qualität der verwendeten Daten ab. Zudem stellt sich mit Blick auf den Energie- und Ressourcenbedarf (von Strom über Wasser bis zu Rohstoffen) die Frage nach der Verhältnismäßigkeit, denn oft lassen sich mit relativ kleinen oder komprimierten Modellen oder durch föderales Lernen beziehungsweise Edge AI gute Ergebnisse erzielen. Entgegen dem Trend zu immer größeren Modellen mit riesigem Datenhunger gilt der Slogan "Klasse statt Masse" auch für KI - wenn sie intelligent und nachhaltig genutzt werden soll, mit den richtigen Daten für die richtigen Ziele. Auch wenn aktuell gelegentlich der Anschein erweckt wird, sogenannte KI-Basismodelle wären die Lösung aller Probleme, ist dies mitnichten der Fall. Stattdessen geht es wie in der Statistik eben auch bei KI darum, unter Berücksichtigung jeweiliger Vor- und Nachteile dem Gegenstand angemessene Methoden anzuwenden sowie zu klären, wie diese bestmöglich angewendet werden können.
Statt "viel hilft viel" stehen adäquate Modelle sowie Datenverfügbarkeit, Dokumentation, Datenbereinigung, -aufbereitung, -harmonisierung und Langfristsicherung im Fokus. Das Umweltbundesamt (UBA) baut für einen besseren Überblick über Datens(ch)ätze das Datenportal umwelt.info auf und arbeitet im jüngst eröffneten Anwendungslabor Künstliche Intelligenz und Big Data daran, Datenschätze zu heben. Der Abschlussbericht von Francensca Brias „New Hanse“-Projekt am New Institute plädiert zudem für ein neues Paradigma urbanen Datenteilens mit größtmöglichem offenen Zugang, um den öffentlichen Wert von Daten zu erschließen und den Aufwand für die gemeinsame Nutzung zu verringern. Dieses Verständnis von Daten als Gemeingut ließe sich auch auf weitere zivilgesellschaftliche Kontexte, beispielsweise im ländlichen Raum, übertragen.
Natürlich gibt es auch Fälle, in denen eine Menge Daten und Rechenleistung nötig sind, um bestmögliche Resultate zu erzielen. Dann kann beispielsweise AutoML eingesetzt werden, um mit maschinellem Lernen die Parameter eines KI-Modell zu optimieren. Im Projekt GreenAutoML4FAS wird diese Methode für Fahrassistenzsysteme genutzt, um deren Energieverbrauch zu senken, wobei der breite Impact den Energieaufwand rechtfertigt.
Mehr Transparenz zum Energie- und Ressourcenverbrauch ist nötig
Das Projekt SustAIn arbeitet wiederum an einem Nachhaltigkeitsindex für KI, untersucht fortlaufend deren Auswirkungen, wie etwa den unterschätzten Energieverbrauch der stark zunehmenden Inferenzen und entwickelt darauf basierende Kriterien. Ergänzend dazu will das Projekt ECO:DIGIT Transparenz, Objektivität und Standardisierung bei der Bewertung des Ressourcenverbrauchs der gesamten beim Einsatz von Softwarelösungen beteiligten digitalen Infrastruktur schaffen – was besonders bei KI gegenwärtig in weiten Teilen fehlt. Das UBA hat bereits Vergabekriterien für die Anwendung des Umweltzeichens Blauer Engel für ressourcen- und energieeffiziente Softwareprodukte entwickelt - mit Blick auf KI könnte künftig mehr Transparenz auch dort für fundierte Zertifizierung sorgen.
Auf der Clean-IT Conference 2023 betonte Felix Biessmann, der unter anderem im Projekt Green Consumption Assistant forscht, dass vollständige und automatische Dokumentation in der KI-Entwicklung wie Anwendung der Schlüssel und Open Source der Weg nach vorn ist. Sadasivan Shankar, der vor seiner Stanford-Professur 20 Jahre lang für Intel arbeitete, wies jedoch auf die Schwierigkeit hin, dazu nötige Daten großer Hard- und Softwarekonzerne zu bekommen. Es sei viel Druck auf die Industrie nötig, damit clean-IT Wirklichkeit werden kann. Generell zerbricht die frühere Kultur des Teilens in der KI-Forschung durch große Sprachmodelle, wie die im Widerspruch zum Namen stehende Praxis von OpenAI zeigt. Es mangelt an Reproduzierbarkeit und Zugriff auf Ressourcen, was eine massive Duplizierung und Intensivierung rechenleistungsintensiver Arbeiten im aktuellen KI-Wettrüsten großer Tech-Konzerne zur Folge hat - und damit erhöhten Bedarf an Infrastruktur.
Nachhaltige KI braucht nachhaltige Rechenzentren
Laut UBA benötigten Rechenzentren bereits 2020 rund drei Prozent des jährlichen deutschen Stromverbrauchs mit stark steigender Tendenz (ca. sechs Prozent pro Jahr), wobei die zunehmende Digitalisierung aller Lebensbereiche und ein rasant wachsender Bedarf an Datenverarbeitung – auch durch KI – dafür ursächlich sind. Der Energieverbrauch von Rechenzentren ließe sich noch deutlich senken, aber bislang mangelt es leider an Transparenz und der Nutzung geeigneter Indikatorik. Zwar gibt es mit dem Blauen Engel für Rechenzentren bereits eine Zertifizierung, die aber bislang leider nur wenig verbreitet ist. Die erzeugte Abwärme bleibt zudem noch größtenteils ungenutzt, bietet aber wertvolle Potenziale. Im Projekt Bytes2Heat wurde ein Online-Matching-Tool für Rechenzentren und Wärmesenken entwickelt und kürzlich öffentlich vorgestellt. Betreiber von Rechenzentren, die Abwärme zur Verfügung stellen möchten, können dort mit potenziellen Nutzerkreisen in Austausch treten. Ein Überblick zu 99 Best-Practice-Beispielen aus 15 Ländern zeigt, dass hierzulande noch viel zu tun ist. Indirekt ist dort auch das Projekt DC2HEAT mit zwei Use Cases in Frankfurt am Main aufgeführt. Dort soll KI die Planung und Anpassung bei der Abwärmenutzung aus Rechenzentren vereinfachen und den Betrieb wirtschaftlicher und umweltfreundlicher gestalten.
Fazit: Menschenzentrierung braucht Umweltzentrierung und KI einen Neustart
Menschenzentrierte KI lässt sich kaum sinnvoll denken, ohne dass sie zugleich umweltzentriert ist, denn die Überschreitung planetarer Leitplanken gefährdet die natürlichen Lebensgrundlagen. Nachhaltige und gemeinwohlorientierte KI könnte und sollte vielmehr verstärkt in den Dienst ihrer Erhaltung gestellt werden. Bei legislativen Prozessen auf EU-Ebene (KI-Verordnung) wäre es gut, neben gegenwärtig mangelnder Transparenz über Modelleigenschaften auch explizit den Energie- und Ressourcenverbrauch zu adressieren und zumindest ab einer relevanten Dimension die automatische und nachvollziehbare Messung des Energie- und Ressourcenverbrauchs für Training und Inferenz verpflichtend zu integrieren. Erst dann werden objektivere ökologische Kosten-/ Nutzenabwägungen und diesbezügliche Vergleiche möglich.
Zugleich wäre für nachhaltige Technologiegestaltung verstärkt die Entwicklung und Anwendung effizienterer und vertrauenswürdiger Paradigmen ebenso zu fördern wie entsprechende Communitys im Bereich Open Source für Soft- und Hardware. Dezentrale Open-Source-Ansätze wie RedPajama weisen in eine neue Richtung, die bereits als Linux-Moment von KI bezeichnet wurde und für das aktuelle Paradigma eine Herausforderung und Chance zugleich sein könnte. Momentan öffnet sich vielleicht das letzte Gelegenheitsfenster für nachhaltige technologische und soziale Innovationen im KI-Bereich – dies sollte nicht ungenutzt bleiben. Dem aktuell dominanten Innovationspfad rasanter Entwicklungen im aktuellen KI-Wettrüsten, das von Visionen einer allgemeinen KI oder gar Superintelligenz getrieben ist, stehen nicht nur potenziell hohe ökologische und soziale Kosten gegenüber, sondern auch die Möglichkeit, menschen- und umweltzentrierter und entsprechend wertebasierter IT-Entwicklung. Ethische und entsprechend vertrauenswürdige sowie nachhaltige KI-Ökosysteme und Geschäftsmodelle im Sinne der bereits vor fünf Jahren skizzierten „AI4People“ könnten damit neu gedacht und geschaffen werden, wobei Teilhabe, Kooperation und Open Source statt Konkurrenz im Zentrum stehen. Zwar müssen auch bestehende Ansätze für mehr Nachhaltigkeit weiterentwickelt, aber eben auch zugleich revolutioniert werden, damit KI nicht zum „Brandbeschleuniger ökologischer Zerstörung“ wird, sondern als sozio-technisches System dabei hilft, diese und andere große gesellschaftliche Herausforderungen zu bewältigen – einschließlich derjenigen, die im Zusammenhang mit der Verbreitung von KI entstehen.
Sadasivan Shankar erinnerte auf der Clean-IT Conference 2023 an das exponentielle Wachstum von Hardware seit 60 Jahren und dass Software durch KI aktuell mit Blick auf Rechenoperationen doppelt-exponentiell wächst. Der nötige Energie- und Rohstoffbedarf von der Chipfertigung bis zur Kühlung ist nicht nachhaltig, es gäbe aber eine positive Seite, denn wir könnten Computer neu erfinden und hätten dabei viel von der Natur zu lernen. Das aktuelle Paradigma sei eine Sackgasse, wie Shankars numerische Beispiele zeigen: Die Milliarden Parameter aktueller großer KI-Sprachmodelle basieren je Parameter auf circa zehn Billionen Berechnungen, welche im aktuellen Chipdesign außer den Ergebnissen der Informationsverarbeitung vor allem elektrische Energie in Wärme umwandeln. Zudem liegt der Grund, warum KI energieintensiv ist in der Art und Weise, wie wir sie benutzen – statt weiter damit "herumzuspielen", sollten wir sie intelligent und zielgerichtet anwenden und bestehendes Domänenwissen wie beispielsweise physikalische Gesetze im Rahmen hybrider Ansätze integrieren. Ein solcher Neustart ist bereits seit Jahren Gegenstand von Fachdebatten, aber die Umsetzung benötigt viel menschliche Arbeit und Intelligenz. Neuromorphe Hardware, die von biologischen Prinzipien inspiriert aktuell zum Beispiel im von SPRIN-D geförderten Supercomputer SpiNNaker2 erprobt wird, könnte ein weiterer Schritt sein – ebenso wie weniger revolutionäre, aber weiter fortgeschrittene Innovationen zur Effizienzsteigerung, wie offene Prozessorarchitekturen (RISC-V), FPGAs oder rechnende Speicherchips.
Auf der Clean-IT-Conference am HPI pointierte Tina Marie Kaarsberg vom U.S. Department of Energy die massive Zunahme des Energieverbrauchs der Digitalisierung mit den Worten: „Houston, we have a problem“, bevor Ralf Herbrich gemeinsam mit ihr feierlich das DOE EES2 Pledge zur Verdoppelung der Energieeffizienz von Mikroelektronik alle zwei Jahre unterzeichnete und das Selbstverständnis des HPI als ein Korrektiv betonte, um durch Bildung die richtigen Probleme zu identifizieren und zu lösen. Trotz vieler Bemühungen und Erfolge bleibt angesichts der durch große KI-Modelle absehbaren Rebound-Effekte noch viel zu tun und die Verbreitung technischer Lösungen braucht soziale Innovation und kritisch reflektierte Wissenskulturen von Fachcommunitys bis in die Zivilgesellschaft hinein. Eine andere digitale Welt und damit auch andere KI ist nötig und möglich – sofern wir kontinuierlich daran arbeiten, sie gemeinsam zu schaffen. Ein Blauer Engel für KI könnte ein weiterer Schritt in die richtige Richtung sein, gemeinsam mit vielen anderen für mehr Transparenz und verantwortungsvolle Technologie(um)gestaltung hin zu nachhaltiger KI – für alle.
Über den Autor
Reinhard Messerschmidt ist Referent und arbeitet als interdisziplinärer Sozialwissenschaftler und promovierter Philosoph seit 2017 zu Digitalisierung und Nachhaltigkeit mit Fokus auf KI und Technikgestaltung für das Gemeinwohl.