Künstliche Intelligenz, Klima und Bildung - Herausforderungen und Perspektiven
Abstract
Die rasante Evolution von KI-Systemen und die Klimakrise weisen strukturelle Parallelen auf: Beide sind durch große Ungewissheit bei gleichzeitig hoher Handlungsrelevanz gekennzeichnet. Während gesellschaftlich über negative Klimawirkungen vieler Bereiche diskutiert wird, bleiben die sozio-ökologischen Auswirkungen von KI-Systemen weitgehend unreflektiert. Dieser Artikel untersucht die komplexen Verflechtungen zwischen Künstlicher Intelligenz und (Nicht-)Nachhaltigkeit und entwickelt Perspektiven für eine (medien-)pädagogische Gestaltung entsprechender Transformationsprozesse.
Ausgehend von den technologischen Grundlagen von Machine Learning bis zur Allgemeinen Künstlichen Intelligenz werden die vielschichtigen Nachhaltigkeitsherausforderungen von KI-Systemen analysiert: von den sozio-ökologischen Folgen der Rohstoffgewinnung über digitale Ungleichheit und digitalen Kolonialismus bis hin zu den Dynamiken des digitalen Kapitalismus. Dabei werden zwei komplementäre Perspektiven systematisch betrachtet: „AI for Sustainability" (KI für nachhaltige Entwicklung) und „Sustainable AI" (nachhaltige KI-Systeme).
Aus der Perspektive der Medienpädagogik wird mit Fokus auf Bildung für nachhaltige Entwicklung gegen eine Rekonstruktion von KI-Systemen und -anwendungen im Sinne eines technologischen Solutionismus argumentiert. Für eine kritisch-reflexive Auseinandersetzung mit KI wird die Implementierung von (medien-)pädagogischen Ermöglichungsräumen im Kontext transformativer Bildung vorgeschlagen. Diese sollen dazu befähigen, die Komplexität des Verhältnisses von KI und (Nicht-)Nachhaltigkeit zu durchdringen und gesellschaftliche Veränderungsprozesse aktiv mitzugestalten.
Einleitung
Die rasante Erwärmung der Erde, schmelzende Polkappen, häufige Extremwetterereignisse wie Stürme, Dürren, Regen oder Überschwemmungen sowie der fortschreitende Verlust von Tier- und Pflanzenarten sind nur einige Konsequenzen des globalen Klimawandels (oder der Klimaveränderung). Dieser beschreibt im gegenwärtigen Verständnis einen durch den Menschen hervorgebrachten deutlichen Temperaturanstieg und somit eine Erwärmung der Erde in den letzten 150 Jahren. Ein zentraler Einflussfaktor ist die Freisetzung von Treibhausgasen wie Wasserdampf, Kohlendioxid (CO2) und Methan – verursacht durch die Lebensweisen moderner Gesellschaften, wie vor allem durch die Verbrennung fossiler Energieträger im Rahmen von Mobilität, Wohnen, Ernährung sowie industrieller Produktion.
Zusammen mit weiteren Phänomenen negativer menschlicher Einflussnahme auf den Planeten Erde, wie Umweltzerstörung und Massentierhaltung, rückte der Klimawandel seit den 1960er-Jahren mit zunehmender Brisanz in den Fokus gesellschaftlicher Diskurse (Carson 1962; Meadows u.a. 1972) – nicht zuletzt in Verbindung mit Diskursen um Nachhaltigkeit (WCED 1987). Hierbei kann Nachhaltigkeit als normatives politisches Leitbild für die Weiterentwicklung von Gesellschaften weltweit angesehen werden, welches im Besonderen inter- und intragenerationelle Gerechtigkeit und ökologische Integrität als zentrale Orientierungen benennt (Grunwald / Kopfmüller 2021:31).
Ein Diskurs, welcher in der letzten Dekade auch Zusammenhänge zwischen der Herstellung, Nutzung und Entsorgung digitaler Medientechnologien und (Nicht-)Nachhaltigkeit, respektive Einflüssen der Herstellung, Nutzung und Entsorgung von digitalen Medientechnologien und Klimawandel hergestellt hat (WBGU 2019; Lange / Santarius 2020; Sühlmann-Faul / Rammler 2018). Neben den vielfältigen negativen Umwelt(aus)wirkungen digitaler Medientechnologien (ebd.) rücken in diesem Zusammenhang zwei zentrale Perspektiven für Verbindungen von digitalen Medientechnologien und Nachhaltigkeit in den Fokus: Information and Communication Technology (ICT) for Sustainability und Sustainable ICT (Santarius u.a. 2023). Mit Blick auf die KI-Systemen zugrunde liegenden Medientechnologien können vielfältige Bezüge zwischen KI-Systemen und (Nicht-)Nachhaltigkeit zu diesen Arbeiten hergestellt werden. Während in vielen gesellschaftlichen Bereichen wie Mobilität, Wohnen, Energie, Ernährung – als auch in weiten Teilen im Kontext von Digitalisierung – die negativen Klimawirkungen (wie durch Verbrennung fossiler Energieträger, Rodung, Bebauung und Nutzung von Grünflächen, umweltschädliche Förderung von Rohstoffen) gesellschaftlich (weitgehend) präsent sind und kontrovers diskutiert werden, wird im Kontext von KI-Systemen, deren Anwendungsfelder in Gesellschaften nach und nach am Wachsen sind (Daheim / Wintermann 2019; Nationale Akademie der Wissenschaften 2024; World Economic Forum 2025), bislang selten oder kaum über deren negative (sozio-)ökologische Umwelt(aus)wirkungen gesprochen (Sonnet u.a. 2024; Fischer / Puschermann 2021). Der größte Teil der Entwicklung und Anwendung von KI-Systemen findet derzeit ohne direkten Nachhaltigkeitsbezug statt. Das heißt, dass zum einen in der Entwicklung und Anwendung von KI die Nachhaltigkeit dieser Systeme nicht im Fokus steht sowie zum anderen der Einsatz dieser Systeme im Kontext nachhaltiger Entwicklung nur den (kleinen) Rand der möglichen Anwendungen von KI ausmacht (Rhode u.a. 2021:16-18; Sonnet u.a. 2024). Da sowohl eine Zukunft ohne digitale Medientechnologien – und ohne KI – kaum (mehr) vorstellbar ist (Bendel 2018) als auch Bestrebungen für eine nachhaltige Entwicklung in gesellschaftlichen Transformationsprozessen weiterhin bestehen werden (Fladvad / Hasenfratz 2020), ergibt sich die Notwendigkeit, die Verbindungslinien und Wechselwirkungen zwischen Digitalisierung und Nachhaltigkeit systematisch zu analysieren und aktiv zu gestalten (Lange / Santarius 2020). Hierbei sind verschiedene (Teil-)Bereiche von Gesellschaft sowie gesellschaftliche Akteur*innen gefragt, jeweilige Verbindungen von digitalen Medientechnologien, KI-Systemen und Nachhaltigkeit zu entwickeln und umzusetzen – so auch in Bildungskontexten.
Um diese Verbindungen und ihre Implikationen fundiert diskutieren zu können, werden im Folgenden zunächst die technologischen Grundlagen von Machine Learning bis zur Allgemeinen Künstlichen Intelligenz dargestellt, bevor die spezifischen Zusammenhänge von KI und Nachhaltigkeit dargelegt und schließlich Perspektiven für eine (medien-)pädagogische Gestaltung dieser Transformationsprozesse entwickelt werden.
Von Machine Learning bis zur Allgemeinen Künstlichen Intelligenz
Künstliche Intelligenz (KI) hat sich zu einem Sammelbegriff für verschiedene Technologien entwickelt, die menschenähnliche Problemlösungsfähigkeiten nachbilden. Ein zentraler Bereich ist dabei das maschinelle Lernen (Machine Learning), das bereits 1959 von Arthur Samuel als „Forschungsfeld, das Computern die Fähigkeit zum Lernen gibt, ohne explizit programmiert zu werden“ (Samuel 1959:210) definiert wurde. Anders als bei klassischer Softwareentwicklung, wo jeder Schritt genau vorgegeben werden muss, können Machine-Learning-Systeme aus Beispielen lernen und Muster erkennen.
In den letzten Jahren haben besonders generative KI-Systeme für Aufsehen gesorgt, die Texte, Bilder, Videos oder Musik erzeugen. Diese Systeme erfordern enorme Mengen an Rechenleistung und haben einen sehr hohen Energiebedarf (Tomlinson u.a. 2023).
Während aktuelle KI-Systeme nur in bestimmten Bereichen erfolgreich sind, zeichnet sich bereits die nächste Entwicklungsstufe ab: Künstliche Allgemeine Intelligenz (Artificial General Intelligence, kurz AGI). AGI beschreibt keine einzelne technologische Innovation, sondern einen schrittweisen Prozess hin zu Systemen, die in vielen kognitiven Aufgaben mindestens menschliches Niveau erreichen können (Morris u.a. 2024). Systeme wie ChatGPT werden als Emerging AGI eingestuft (ebd.).
Diese Evolution von KI-Systemen wirft grundlegende gesellschaftliche Fragen auf und erfordert eine breite Diskussion über ethische Leitplanken (Coeckelbergh 2020; Brynjolfsson 2022) und nachhaltige Entwicklungspfade (Rhode u.a. 2021; Bits & Bäume 2022).
Besonders im Bildungskontext ist es wichtig, nicht nur die technischen Möglichkeiten zu verstehen, sondern auch die gesellschaftlichen Auswirkungen kritisch zu reflektieren (Autenrieth 2024; Khan 2024). Um die Chancen und Risiken von KI-Systemen in ihrer ganzen Tragweite erfassen zu können, bedarf es dabei eines differenzierten Verständnisses von Nachhaltigkeit, das die Verwobenheit ökologischer, sozialer und ökonomischer Dimensionen berücksichtigt und deren komplexe Zusammenhänge in den Blick nimmt.
KI und Nachhaltigkeit
Klimakrise und KI-Entwicklung weisen strukturelle Parallelen auf: Beide sind durch fundamentale Ungewissheit bei gleichzeitig hoher Handlungsrelevanz gekennzeichnet. Die Gesellschaft steht in beiden Bereichen vor potenziell irreversiblen Veränderungen mit schwer vorhersehbaren Auswirkungen (z.B. klimabezogene Tipping Points oder Übergang von AGI zu ASI, d.h. zur Artificial Super Intelligence; Aschenbrenner 2024; Kissinger u.a. 2024; Tegmark 2017). Wenn nun allerdings im Kontext der KI-Entwicklung argumentiert wird, KI könne ihre Nachhaltigkeitsprobleme allein durch technische Optimierung lösen oder KI sei der Schlüssel zur Lösung der Klimakrise (technologischer Solutionismus), dann ist dies aus mehreren Gründen kritisch zu betrachten (Morozov 2014). Diese Kritik richtet sich dabei nicht grundsätzlich gegen technologische Lösungsansätze selbst, sondern gegen eine oberflächliche Form der Problembearbeitung. Drei Aspekte sind hierbei zentral: Erstens erfordern komplexe Probleme wie der Klimawandel neben technologischen auch soziale, politische und wirtschaftliche Lösungsstrategien, die auf einem tieferen Verständnis der Problemursachen basieren. Zweitens kann die Fokussierung auf vermeintliche ‚Wunderlösungen‘ (technological fix) von notwendigen strukturellen Veränderungen ablenken. Drittens können technologische Lösungen selbst neue, unvorhergesehene Probleme erzeugen, die wiederum bewältigt werden müssen (ebd.).
Nachhaltigkeitsrisiken und -potenziale von KI-Systemen
Die Auseinandersetzung mit den Umweltwirkungen von KI-Systemen hat sich in den letzten Jahren grundlegend gewandelt. Während die Diskussion lange Zeit primär auf einzelne Kennzahlen wie den Energieverbrauch beim Training großer Sprachmodelle fokussiert war (Strubell u.a. 2019), zeigt neuere Forschung die Notwendigkeit einer differenzierteren Betrachtung der tatsächlichen Umweltwirkungen über den gesamten Lebenszyklus von KI-Systemen (Tomlinson u.a. 2024). Über den reinen Energieverbrauch hinaus müssen jedoch weitere sozio-ökologische Auswirkungen berücksichtigt werden, wie zum Beispiel:
- Sozio-ökologische Folgen der Rohstoffgewinnung, aber auch Herstellung, Nutzung und Entsorgung von (digitalen) Medientechnologien: Die Herstellung digitaler Medientechnologien verursacht erhebliche ökologische und soziale Probleme (Lange / Santarius 2020). Der Abbau seltener Erden für Smartphones und Computer führt zu Umweltverschmutzung, Wasserverknappung und Gesundheitsschäden in Abbaugebieten (ebd.). Die Herstellung ist energie- und ressourcenintensiv (u.a. enorme Mengen an elektrischer Energie, Wasser, seltene Erden, Santarius u.a. 2023), während die kurzen Produktzyklen zu massivem Elektroschrott (E-Waste, Quinto u.a. 2025) führen. Sozial entstehen Konflikte um Rohstoffe, prekäre Arbeitsbedingungen in der Produktion und ungleiche Verteilung der Umweltlasten zwischen Industrie- und Entwicklungsländern (Lange / Santarius 2020). Im Kontext der Entwicklung, des Trainings und der Nutzung von KI-Anwendungen wird darüber hinaus auf entsprechende sozio-ökologische Auswirkungen verwiesen (Schütze 2024; Strubell u.a. 2019; Dhar 2020).
- Digitale Ungleichheit: Digitale Ungleichheit bzw. Digital Divide beschreibt die ungleiche Verteilung des Zugangs zu und der Nutzung von digitalen Medientechnologien (di Maggio / Hargittai 2001; Verständig u.a. 2016). Diese manifestiert sich in verschiedenen Dimensionen: geografisch, sozioökonomisch, demografisch und kulturell. Die Kluft verstärkt bestehende gesellschaftliche Ungleichheiten, da digitale Teilhabe zunehmend für Bildung, Arbeit und gesellschaftliche Partizipation erforderlich ist (Autenrieth u.a. 2025). Ein AI Divide (vgl. Bubeck u.a. 2023; Carter u.a. 2020), als Manifestation digitaler Ungleichheit, bezeichnet vor diesem Hintergrund die ungleiche Verteilung von Künstlicher Intelligenz-Technologien und deren Potenziale zwischen verschiedenen Gesellschaftsgruppen und Ländern weltweit (ebd.). Dies verstärkt globale Machtasymmetrien und kann zu neuen Formen der Abhängigkeit führen. Die Konzentration von KI-Expertise und -ressourcen bei wenigen Akteur*innen schafft strukturelle Benachteiligungen für bestimmte Akteur*innen eines Landes sowie zwischen Ländern weltweit (Mathur / Chamuah 2025).
- Digitaler Kolonialismus: Digitaler Kolonialismus (Nothias 2025; Coleman 2019) beschreibt neue Formen der Abhängigkeit und Ausbeutung durch digitale Technologien. Westliche Tech-Konzerne extrahieren Daten aus dem Globalen Süden, während die Wertschöpfung in den Industrieländern stattfindet. Diese Praxis reproduziert koloniale Muster: Rohstoffe (Daten) werden exportiert, verarbeitete Produkte (KI-Services) importiert (auch beschrieben unter Datenkolonialismus, Couldry / Mejias 2019). Gleichzeitig entstehen technologische Abhängigkeiten von dominierenden Plattformen und Standards. Der Begriff umfasst auch die kulturelle Hegemonie westlicher Digitalkonzerne und deren Einfluss auf lokale Märkte und Gesellschaften (Nothias 2025). Erweitert liegt mit dem Konzept des Cyberkolonialismus (Tuzcu 2021) ein Ansatz vor, welcher die Fortsetzung kolonialer Macht- und Herrschaftsverhältnisse im digitalen Raum bezeichnet, bei der eine technologische Elite Kontrolle über Daten und Algorithmen Wissen monopolisiert und so globale Ungleichheiten reproduziert. Künstliche Intelligenz-Systeme und -anwendungen bergen das Risiko diese globalen Auswirkungen eines digitalen Kolonialismus zu verstärken (Muldoon 2023).
- Digitaler Kapitalismus: Digitaler Kapitalismus (Carstensen u.a. 2023) bezeichnet die Transformation kapitalistischer Strukturen durch digitale Technologien. Zentral sind datengetriebene Geschäftsmodelle, Plattformökonomien und algorithmische Steuerung (Staab 2019). Tech-Konzerne akkumulieren Kapital durch Datensammlung, Netzwerkeffekte und Marktkonzentration (ebd.). Charakteristisch sind neue Formen der Wertschöpfung, veränderte Arbeitsbeziehungen und erhöhte Überwachungskapazitäten (Carstensen u.a. 2023; Pfeiffer 2022). Hieraus resultiert eine Verstärkung gesellschaftlicher Ungleichheiten weltweit sowie neue Formen der Entfremdung des Subjekts durch algorithmische Kontrolle von Arbeit und Konsum (ebd.). Künstliche Intelligenz-Systeme und -anwendungen finden in diesem Zusammenhang Verwendung im Bereich Kommerzialisierung, Extraktion und Machtkonzentration. Diese Aspekte stehen hinter der unaufhaltsamen Expansion von Technologiekonzernen und -plattformen und der Monopolisierung im Bereich von KI – mit dem Risiko, dass wenige KI-Giganten Daten, KI-Expertise und Rechenkapazitäten kontrollieren, wodurch sie allein über Entwicklung, Nutzung und gesellschaftliche Auswirkungen von KI entscheiden (Verdegem 2022).
Die bis hier beschriebenen Herausforderungen und Problemlagen wie die ökologischen und sozialen Folgen der Rohstoffgewinnung, digitale Ungleichheit, neue Abhängigkeitsverhältnisse und kapitalistische Dynamiken zeigen, wie komplex und vielschichtig das Verhältnis von KI, digitalen Medientechnologien und Nachhaltigkeit ist. Um dieser Komplexität systematisch zu begegnen und unterschiedliche Handlungsoptionen sichtbar zu machen, haben sich zwei komplementäre Perspektiven herausgebildet:
- KI für nachhaltige Entwicklung (AI for Sustainability) bezeichnet den gezielten Einsatz von KI-Systemen zur Verwirklichung von Nachhaltigkeitszielen. Dazu zählen etwa das Monitoring von Ökosystemen, die Optimierung von Klimaschutzmaßnahmen oder die Verbesserung von Kreislaufwirtschaft und Ressourceneffizienz (Rolnick u.a. 2019).
- Nachhaltige KI (Sustainable AI) betrachtet die sozialen und ökologischen Auswirkungen von KI-Systemen selbst, die über ihren gesamten Lebenszyklus – von der Herstellung über die Entwicklung und Verwendung bis zur Entsorgung – anfallen (Coeckelbergh 2020; Schwartz 2020; Rhode u.a. 2021). (Anmerkung: In der letzten Dekade wurden verschiedene Ansätze bzw. theoretisch-konzeptionellen Ansatzpunkte entwickelt, welche die Dimensionen „KI für nachhaltige Entwicklung“ und „Nachhaltige KI“ adressieren: Slow Tech – vgl. Whitehouse / Patrignani 2018; Digitale Suffizienz – vgl. Lange / Santarius 2020; Digital Circular Economy – vgl. Singh / Kumar 2025; Green ICT – vgl. Obaidat u.a. 2013 / Green AI – vgl. Bolón-Canedo u.a. 2024.)
Bislang dominiert in der Praxis die erste Perspektive, während die Nachhaltigkeitsaspekte der Systeme selbst oft vernachlässigt werden (Hagendorff 2020). So berücksichtigen viele Klimaschutzprojekte mit KI-Einsatz nicht die ökologischen Kosten der eingesetzten Technologien. Eine integrative Sicht, die beide Perspektiven verbindet, ist jedoch unabdingbar, um die nachhaltige Entwicklung, Herstellung, Anwendung und Entsorgung von KI-Systemen ganzheitlich zu gestalten.
Beispiel für AI for Sustainability
AlphaEarth (Brown u.a. 2025) integriert heterogene Erdbeobachtungsdaten (Optik, Radar, Lidar) zu einer durch KI verarbeitbaren Struktur. Damit lassen sich Umweltveränderungen wie Entwaldung, Wasserknappheit oder Flächenversiegelung schneller und konsistenter erfassen. Solche Datengrundlagen sind entscheidend, um Klimaschutzmaßnahmen gezielter zu planen, zu überwachen und zu evaluieren – z.B. im Rahmen von SDG-Indikatoren (Sustainable Development Goals, d.h. Messgrößen zur Erreichung der 17 globalen Nachhaltigkeitsziele der Vereinten Nationen) oder ESG-Reporting (Environmental, Social and Governance, also Nachhaltigkeitsberichterstattung zu Umwelt, Sozialem und Unternehmensführung).
Beispiel für Sustainable AI
AlphaEvolve ist ein Optimierungssystem, das neue Heuristiken und Code-Verbesserungen entwickelt (Novikov 2025). In der Praxis führte dies u.a. zu einem 0,7% Effizienzgewinn in Googles globalem Rechenzentrums-Scheduling. Das entspricht einer permanenten Rückgewinnung von Ressourcen in der Größenordnung von Hunderttausenden Rechenstunden jährlich. Um dies einzuordnen, ist es hilfreich, die Power Usage Effectiveness (PUE) als Messgröße für die Effizienz von Rechenzentren zu betrachten. Diese Kennzahl beschreibt das Verhältnis zwischen dem gesamten Stromverbrauch eines Rechenzentrums und dem Anteil, der tatsächlich für IT-Hardware genutzt wird. Ein PUE von 1,10 bedeutet, dass für 1,00 kWh Stromverbrauch der IT-Hardware insgesamt 1,10 kWh für den gesamten Rechenzentrumsbetrieb benötigt werden. Der Rest entfällt auf Kühlung und Infrastruktur. Moderne Rechenzentren erreichen heute Werte um 1,1. Noch vor zehn Jahren benötigten viele Rechenzentren im Durchschnitt fast 60 Prozent mehr Strom für Kühlung und Infrastruktur als für die eigentliche Rechenarbeit (Patterson u.a. 2021). Wenn AlphaEvolve nun 1% der benötigten Rechenzeit einspart, reduziert sich nicht nur der direkte Energiebedarf, sondern, multipliziert über tausende Server und Standorte, auch die indirekte Klimawirkung erheblich. Legt man den jährlichen Stromverbrauch moderner Hyperscale-Rechenzentren zugrunde, kann ein solcher Effizienzgewinn im Google-Maßstab einer Strommenge entsprechen, die ausreichen würde, um den Jahresbedarf von mehreren Zehntausend durchschnittlichen EU-Haushalten zu decken (Novikov 2025).
Rolle der Inferenz-Effizienz
Neben Optimierungen in der Entwicklung und beim Training haben sich in den letzten Jahren insbesondere in der Phase der Inferenz, also beim Einsatz eines bereits trainierten Modells zur Verarbeitung neuer Eingaben, große Effizienzsteigerungen ergeben. Messungen zeigen, dass der Energiebedarf pro Inferenz zwischen 2020 und 2024 durch Fortschritte in der Modellarchitektur, den Einsatz spezialisierter Hardware und gezielte Software-Optimierungen um den Faktor 6–7 gesunken ist (Hoffmann u.a. 2023). Diese Reduktion bedeutet, dass heutige KI-Systeme für dieselbe Rechenaufgabe deutlich weniger Strom benötigen als noch vor wenigen Jahren, was unmittelbare Einsparungen bei den daraus resultierenden CO₂-Emissionen ermöglicht.
Die Bedeutung solcher Effizienzgewinne wird besonders deutlich, wenn man berücksichtigt, dass Inferenz in vielen Anwendungsfeldern einen sehr großen Anteil am gesamten Energieverbrauch eines KI-Systems ausmacht (Patterson u.a. 2021). Werden diese Verbesserungen in großem Maße umgesetzt, können die kumulierten Einsparungen beträchtlich sein, insbesondere in Rechenzentren, in denen täglich Millionen von Inferenzoperationen ausgeführt werden. Effizienzsteigerungen wirken damit in beiden Nachhaltigkeitsperspektiven: In der Perspektive der Sustainable AI reduzieren sie den ökologischen Fußabdruck der Systeme selbst, in der Perspektive AI for Sustainability erleichtern sie den großskaligen Einsatz ressourcenschonender Lösungen.
Gleichzeitig zeigt der direkte Vergleich mit menschlichen Aktivitäten überraschende Effizienzpotenziale: Bei der Texterstellung emittieren KI-Systeme zwischen 130- und 1.500-mal weniger CO₂e (CO₂-Äquivalent) pro Seite als menschliche Autor*innen. Während ChatGPT etwa 2,2 g CO₂e pro Textseite verursacht, entstehen bei der Texterstellung durch eine Person in den USA etwa 1.400 g CO₂e, in Indien etwa 180 g CO₂e (Tomlinson u.a. 2024). Ähnliche Verhältnisse zeigen sich bei der Bilderstellung.
Darüber hinaus zeigen neuere Lebenszyklusanalysen, dass KI-Nutzung im Verhältnis zu vielen Alltagsaktivitäten einen vergleichsweise geringen Fußabdruck haben kann, besonders bei der Inferenz (Ren u.a. 2024):
- KI vs. Video-Streaming: Eine Stunde KI-Textinteraktion benötigt ca. 0,2–0,5 kWh, während HD-Video-Streaming bei 0,5–2,5 kWh liegt.
- KI vs. Rindfleischproduktion: Tägliche KI-Nutzung über ein Jahr hinweg verursacht etwa 50–100 kg CO₂e pro Nutzer*in, während 1 kg Rindfleisch etwa 60 kg CO₂e verursacht. Wenige Kilogramm Rindfleisch entsprechen also einem ganzen Jahr KI-Nutzung.
Rebound-Effekte
Technische Verbesserungen, wie die Verringerung des Energiebedarfs pro Inferenz, garantieren jedoch nicht automatisch, dass der Gesamtenergieverbrauch sinkt. Steigt die Nutzung schneller als die Effizienz pro Einheit, kann der Verbrauch insgesamt sogar zunehmen. Dieses Phänomen wird als Rebound-Effekt bezeichnet:
- Nachfrage-Rebound: Effizientere und günstigere Modelle ermöglichen es, „Intelligenz“ in deutlich mehr Produkte und Dienste zu integrieren. Das steigert die Gesamtnutzung und kann Effizienzgewinne vollständig aufzehren.
- Effizienz-Druck: Gleichzeitig erzeugen Klimaziele und Kostendruck den Anreiz, Systeme noch effizienter zu machen, um den absoluten Ressourcenverbrauch zu bremsen.
Die Gestaltung des Verhältnisses von KI und Nachhaltigkeit erfordert vor diesem Hintergrund zwingend gesellschaftspolitische Rahmenbedingungen (WBGU 2019). Zentral ist hier insbesondere die Forderung nach mehr Transparenz beim Ressourceneinsatz von KI-Systemen. Die Herausforderungen der Nicht-Nachhaltigkeit können dabei nur durch ein Zusammenspiel verschiedener Handlungsebenen bewältigt werden: Einerseits muss das politische System regulierend eingreifen, um nicht-nachhaltige Praktiken einzugrenzen (Autenrieth 2024). Andererseits kommt der Bildung die wichtige Aufgabe zu, Menschen zu befähigen, die Notwendigkeit nachhaltigen Handelns zu erkennen und sich aktiv an entsprechenden Entscheidungsprozessen und der Gestaltung nachhaltiger Lebensweisen zu beteiligen (Friedrich 2021). Vor diesem Hintergrund stellt sich die Frage, welche spezifischen Aufgaben sich für Bildungskontexte im Spannungsfeld von KI und Nachhaltigkeit ergeben.
(Medien)Bildung für KI und Nachhaltigkeit
In Anbetracht der Notwendigkeit, KI-Systeme nachhaltig zu gestalten und anzuwenden, rücken neben Maßnahmen zur politischen Rahmung und Regelung auch Bildungskontexte und -konzepte in den Fokus. Sie sollen Kinder, Jugendliche und Erwachsene dazu befähigen, sich mit Blick auf die jeweiligen gesellschaftlichen Realitäten an der nachhaltigen Gestaltung und Anwendung von KI-Systemen zu beteiligen. Wichtig ist hierbei jedoch, dass Bildungskontexte nicht mit der Hoffnung und Aufgabe überfrachtet werden, ‚die Welt zu retten‘. Das heißt, dass Bildungskontexte und -konzepte nicht die Aufgaben von Politik übernehmen können und sollen, sondern in ihrem Aufgabenbereich für die Notwendigkeit von nachhaltigem Handeln sensibilisieren. Auch darf eine Verlagerung der Auseinandersetzung mit und Bearbeitung von Nicht-Nachhaltigkeit in Bildungskontexte, und so gewissermaßen in die Zukunft, nicht als Legitimation eines Nicht- oder zögerlichen Handelns in der Gegenwart angesehen werden (Öztürk u.a. 2023).
Zeichnen sich Verbindungen der Entwicklung, Herstellung, Anwendung und Entsorgung von KI-Systemen (und den hierfür benötigten digitalen Medientechnologien) und Nachhaltigkeit bereits kaum ab (Rhode u.a. 2021:16), so sind diese Verbindungen in Bildungskontexten noch weniger zu finden (Maurer / Schluchter i. V.; Autenrieth / Schluchter 2025). Nicht zuletzt liegt dies daran, dass auch Verbindungen von Medienpädagogik und Bildung für nachhaltige Entwicklung (BNE), also von Disziplinen, welche sich mit diesen gesellschaftlichen Phänomenen und Fragestellungen grundsätzlich befassen, erst randständig entwickelt sind (Maurer u.a. 2024; Schluchter 2020b). Bislang liegen zum Beispiel erst wenige BNE- und Medienkompetenzmodelle vor, die digitale Medientechnologien und Nachhaltigkeit miteinander verzahnen, wie DIGCOMP (Carretero u.a. 2017) oder BNE-Kompetenzen (Rieckmann 2010) – KI-Systeme sind hierbei bislang noch nicht explizit aufgeführt.
In den letzten Jahren lag der Fokus im Kontext von Bildung auf der Entwicklung von Kompetenzformulierungen in Bezug auf KI - im Besonderen in Überlegungen zu AI Literacy (Ng u.a. 2021; Yang u.a. 2025; auch Beranek u.a. 2024; Barberi u.a. 2025; einhergehend auch in Verbindung mit Konzepten wie Prompt Literacy oder Algorithmic Literacy, vgl. Carter u.a. 2020), zum Teil in Verbindung mit Konzepten wie Media/Digital Literacy (Tiernan u.a. 2023) oder mit AI Competencies (Long / Magerko 2020; Chiu u.a. 2024) (zur Übersicht Tadimalla / Maher 2025). Eine Zusammenführung mit Blick auf Fragen von Nachhaltigkeit und/oder einer Bildung für nachhaltige Entwicklung liegt, wie bereits angeführt, (noch) nicht vor – erste Ansatzpunkte finden sich jedoch in der Verbindung des Konzepts Ecomedia Literacy und KI (vgl. López / Guldin 2025).
Vor diesem Hintergrund ist es von Bedeutung, dass Bildungskonzepte sowie einhergehende Kompetenzmodelle und -formulierungen KI-Systeme und (Nicht-)Nachhaltigkeit zusammenbringen – von der Ebene der Kompetenzformulierungen über die Ebene der Bildungsinhalte bis hin zu konkreten didaktischen Szenarien (Maurer / Schluchter i. V.).
Im Kern geht es darum, Möglichkeitsräume zur Reflexion der Komplexität des Verhältnisses von (Nicht-)Nachhaltigkeit und KI-Systemen zu eröffnen, sodass Kinder, Jugendliche und Erwachsene in die Lage versetzt werden, entsprechende gesellschaftliche Transformationsprozesse mitzugestalten. In diesem Zusammenhang bieten (medien-)pädagogische Ermöglichungsräume (Schluchter 2020a) einen geeigneten Zugang zur Auseinandersetzung (Schluchter / Sieben 2022).
(Medien-)Pädagogische Ermöglichungsräume sind ein Ausgangspunkt, um Empowerment und Resilienz mit Bildungspraxen im Kontext von KI-Systemen, digitalen Medientechnologien und Nachhaltigkeit zusammenzudenken. Sie sollen Kindern, Jugendlichen und Erwachsenen Rahmenbedingungen, Anregungen und Impulse sowie Anlässe und Situationen bieten, welche ein alleiniges oder gemeinsames Nachdenken über die Zusammenhänge von KI-Systemen und (Nicht-)Nachhaltigkeit ermöglichen. Gleichzeitig zeigen sie mögliche Wertorientierungen auf und eröffnen Raum für die Entwicklung von Perspektiven für individuelles und/oder politisches Handeln. Der Kern (medien-)pädagogischer Ermöglichungsräume liegt in
- einem Denken in Alternativen: Ein kritisches Hinterfragen der eigenen oder gesellschaftlich verhandelten Weltsichten (z.B. Anthropozentrismus, Gegenüberstellung Mensch - Natur) sowie eine Suche nach und Entwicklung von alternativen Weltsichten (z.B. Biozentrismus, Entanglements)
- einer Reflexion dieser Denkvoraussetzungen: Ein Verstehen gesellschaftlicher Phänomene entlang ihrer historisch-gesellschaftlichen Entwicklung, ein Denken in vernetzteren Zusammenhängen - eine Suche nach Antworten auf die Frage „Warum sind die Dinge der Welt, so wie sie sind?“.
Hier lassen sich auch Bezüge zur Notwendigkeit der Reflexion einer „Verklärung von Technologie“ (Sühlmann-Faul / Rammler 2018:86-87) herstellen – etwa in Form des Ausblendens negativer sozio-ökologischer Umwelt(aus)wirkungen oder der Überzeugung, digitale Medientechnologien seien ein „technological fix“ (Schütze 2024).
Ebenso relevant ist die Auseinandersetzung mit „mentalen Pfadabhängigkeiten“, wie dem Festhalten an kapitalistisch geprägter Wachstums- und Expansionslogik in der Bearbeitung des Klimawandels (z.B. Green Capitalism) (ebd.).
Gleichermaßen ist die Auseinandersetzung mit Dilemmata, Ambivalenzen und Widersprüchen, welche sich im Rahmen der Zusammenhänge von KI-Systemen, digitalen Medientechnologien und (Nicht-)Nachhaltigkeit aus Perspektive der Kinder, Jugendlichen und Erwachsenen ergeben, ein wesentliches Element dieser Ermöglichungsräume. Aufgrund der Komplexität dieser Zusammenhänge, der oftmals fehlenden Transparenz sowie der gegenwärtig wenig nachhaltigen gesellschaftlichen Strukturen des Aufwachsens mit KI-Systemen und digitalen Medientechnologien ergeben sich vielfältige Dilemmata, Ambivalenzen und Widersprüche, mit denen Einzelne umgehen müssen. (Medien-)pädagogische Ermöglichungsräume bieten hier Raum für die gemeinsame Entwicklung individueller oder gesellschaftlicher Handlungsmöglichkeiten.
Bildung kann in diesem Zusammenhang zu einem Raum werden, in dem Menschen nicht nur kompetent im Umgang mit KI werden, sondern in einem tieferen Sinn dazu befähigt werden, kritisch über ihre Selbst- und Weltverhältnisse zu reflektieren, um gemeinschaftlich zu entscheiden, wie sich Zusammenleben künftig gestalten soll (Autenrieth u.a. 2025). Diese Transformation von Selbst- und Weltverhältnissen kann aus der Perspektive des transformativen Lernens (Mezirow 1991) durch krisenhafte Erfahrungen ausgelöst werden, die – als anregendes Moment verstanden – durch Irritation oder Diskrepanz zwischen bisherigen Erwartungen und neuen, widersprüchlichen Erfahrungen einen Reflexionsprozess auslösen, indem bisherige Deutungsmuster, sogenannte „Frames of Reference“ (Taylor 2017:17), bzw. Habitus (Bourdieu 1987) infrage gestellt werden.
Gerade durch KI entstehen vielfältige Situationen, in denen ein solches Auseinanderdriften von Erwartungen und Wirklichkeit erfahren wird. KI kann bestehende Vorstellungen von Kreativität, Arbeit, Intelligenz oder menschlichen Fähigkeiten massiv irritieren und damit zu desorientierenden Dilemmata führen (Autenrieth 2025). Werden diese Irritationen pädagogisch begleitet, eröffnet sich das Potenzial für transformative Bildungsprozesse: Subjekte hinterfragen und erweitern ihr bisheriges Deutungsrepertoire und gewinnen dadurch die Fähigkeit, auf technologische wie gesellschaftliche Wandlungsprozesse neu zu reagieren.
Transformative Bildung geht aber über die Aneignung von Wissen über KI hinaus und möchte zur Reflexion über eigene Grundannahmen, Haltungen und Werte anregen und Menschen dabei unterstützen, Unsicherheit in eine produktive Auseinandersetzung zu wenden und bestehende Prämissen zu hinterfragen (Mezirow 1996:46), z.B. welches technologische Fortschrittsverständnis sie übernommen haben, welche impliziten Normen über Intelligenz in sie eingeschrieben sind oder welche Vorstellungen von Nachhaltigkeit bislang unreflektiert geblieben sind. Solche kritischen Reflexions- und Diskursphasen schaffen erst die Basis, um Nachhaltigkeitsfragen im Umgang mit KI angemessen bearbeiten zu können.
Damit eine solche Transformation gelingen kann, bedarf es spezifischer didaktisch aufbereiteter Bildungssettings. Hans-Christoph Koller (2012) wie auch Jack Mezirow (1996) betonen, dass Bildungsprozesse, die tiefgreifende Veränderung zum Ziel haben, nicht allein durch kognitive Wahrnehmung stimuliert werden. Notwendig sind Reflexionsräume, in denen Lernende Irritationen aussprechen, Perspektivenvielfalt erleben und im geschützten Rahmen neue Handlungsoptionen erproben können (Autenrieth 2025) – wie angelegt im Ansatz der (medien)pädagogischen Ermöglichungsräume (Schluchter 2020a).
In dieser Perspektive eröffnet Nachhaltigkeit als Bezugspunkt transformativer Bildung die Möglichkeit (und Notwendigkeit), dass Bildungsprozesse dazu anregen, nicht nur auf KI-Technologien und -anwendungen (und deren gesellschaftliche Implementierung) zu reagieren, sondern gemeinsame Perspektiven der Entwicklung und Nutzung von KI zu entfalten, welche am (ethisch-philosophischen) Kern von KI-Systemen und -Anwendungen ansetzen (z.B. Bearbeitung von AI-Biases und/oder von Techno-Ableismus). So wird Nachhaltigkeit mit Blick auf digitale Medientechnologien und KI-Systeme zum steten und unaufhebbaren Reflexionsmoment der Entwicklung (Sustainable AI) und gesellschaftlichen Implementierung und Nutzung von KI-Technologien und -Anwendungen (AI for Sustainability).
Ausblick
Angesichts der ernüchternden Erkenntnis des Berichts Earth for All (Dixson-Declève u.a. 2022) – erschienen 50 Jahre nach Grenzen des Wachstums (Meadows u.a. 1972) –, dass die Ursachen des Klimawandels bekannt sind, wir eigentlich wissen, was zu tun ist, unser Handeln jedoch nach wie vor viel zu langsam und kleinschrittig bleibt, wirken aktuelle Meldungen über den wachsenden Energiebedarf von KI-Systemen besorgniserregend. Insbesondere Überlegungen, fossile Rohstoffe wieder verstärkt zu fördern oder Atomkraftwerke neu zu bauen, um diesen Energiebedarf zu decken, scheinen die Lehren aus fünf Jahrzehnten Klimaforschung zu ignorieren.
Die jüngsten Entwicklungen im Bereich der KI-Systeme zeigen jedoch, dass der Konflikt zwischen Leistungsfähigkeit und Nachhaltigkeit nicht unausweichlich ist – etwa durch Ansätze wie Liquid Neural Networks, die eine deutlich bessere Energieeffizienz versprechen. Die Gestaltung solch nachhaltiger Entwicklungen erfordert allerdings eine breite gesellschaftliche Debatte und aktive Beteiligung. Hier wird die Bedeutung einer Bildung für nachhaltige Entwicklung deutlich, die intergenerationell entlang der gesamten Bildungskette wirkt und im Zusammenspiel mit medienpädagogischen Ermöglichungsräumen Menschen befähigt, Zukunftsvorstellungen zu entwickeln und in gesellschaftliche Aushandlungsprozesse einzubringen. Nur so kann das Potenzial von KI-Systemen für eine nachhaltige Zukunft verwirklicht werden – nicht als technologischer ‚Quick Fix‘, sondern als Teil einer grundlegenden gesellschaftlichen Transformation.