Künstliche Intelligenz, Klima und Bildung - Herausforderungen und Perspektiven

Artikel-Metadaten

von Daniel Autenrieth, Jan-René Schluchter

Erscheinungsjahr: 2025/2025

Abstract

Die rasante Evolution von KI-Systemen und die Klimakrise weisen strukturelle Parallelen auf: Beide sind durch große Ungewissheit bei gleichzeitig hoher Handlungsrelevanz gekennzeichnet. Während gesellschaftlich über negative Klimawirkungen vieler Bereiche diskutiert wird, bleiben die sozio-ökologischen Auswirkungen von KI-Systemen weitgehend unreflektiert. Dieser Artikel untersucht die komplexen Verflechtungen zwischen Künstlicher Intelligenz und (Nicht-)Nachhaltigkeit und entwickelt Perspektiven für eine (medien-)pädagogische Gestaltung entsprechender Transformationsprozesse.

Ausgehend von den technologischen Grundlagen von Machine Learning bis zur Allgemeinen Künstlichen Intelligenz werden die vielschichtigen Nachhaltigkeitsherausforderungen von KI-Systemen analysiert: von den sozio-ökologischen Folgen der Rohstoffgewinnung über digitale Ungleichheit und digitalen Kolonialismus bis hin zu den Dynamiken des digitalen Kapitalismus. Dabei werden zwei komplementäre Perspektiven systematisch betrachtet: „AI for Sustainability" (KI für nachhaltige Entwicklung) und „Sustainable AI" (nachhaltige KI-Systeme).

Aus der Perspektive der Medienpädagogik wird mit Fokus auf Bildung für nachhaltige Entwicklung gegen eine Rekonstruktion von KI-Systemen und -anwendungen im Sinne eines technologischen Solutionismus argumentiert. Für eine kritisch-reflexive Auseinandersetzung mit KI wird die Implementierung von (medien-)pädagogischen Ermöglichungsräumen im Kontext transformativer Bildung vorgeschlagen. Diese sollen dazu befähigen, die Komplexität des Verhältnisses von KI und (Nicht-)Nachhaltigkeit zu durchdringen und gesellschaftliche Veränderungsprozesse aktiv mitzugestalten.

Einleitung

Die rasante Erwärmung der Erde, schmelzende Polkappen, häufige Extremwetterereignisse wie Stürme, Dürren, Regen oder Überschwemmungen sowie der fortschreitende Verlust von Tier- und Pflanzenarten sind nur einige Konsequenzen des globalen Klimawandels (oder der Klimaveränderung). Dieser beschreibt im gegenwärtigen Verständnis einen durch den Menschen hervorgebrachten deutlichen Temperaturanstieg und somit eine Erwärmung der Erde in den letzten 150 Jahren. Ein zentraler Einflussfaktor ist die Freisetzung von Treibhausgasen wie Wasserdampf, Kohlendioxid (CO2) und Methan – verursacht durch die Lebensweisen moderner Gesellschaften, wie vor allem durch die Verbrennung fossiler Energieträger im Rahmen von Mobilität, Wohnen, Ernährung sowie industrieller Produktion.

Zusammen mit weiteren Phänomenen negativer menschlicher Einflussnahme auf den Planeten Erde, wie Umweltzerstörung und Massentierhaltung, rückte der Klimawandel seit den 1960er-Jahren mit zunehmender Brisanz in den Fokus gesellschaftlicher Diskurse (Carson 1962; Meadows u.a. 1972) – nicht zuletzt in Verbindung mit Diskursen um Nachhaltigkeit (WCED 1987). Hierbei kann Nachhaltigkeit als normatives politisches Leitbild für die Weiterentwicklung von Gesellschaften weltweit angesehen werden, welches im Besonderen inter- und intragenerationelle Gerechtigkeit und ökologische Integrität als zentrale Orientierungen benennt (Grunwald / Kopfmüller 2021:31).

Ein Diskurs, welcher in der letzten Dekade auch Zusammenhänge zwischen der Herstellung, Nutzung und Entsorgung digitaler Medientechnologien und (Nicht-)Nachhaltigkeit, respektive Einflüssen der Herstellung, Nutzung und Entsorgung von digitalen Medientechnologien und Klimawandel hergestellt hat (WBGU 2019; Lange / Santarius 2020; Sühlmann-Faul / Rammler 2018). Neben den vielfältigen negativen Umwelt(aus)wirkungen digitaler Medientechnologien (ebd.) rücken in diesem Zusammenhang zwei zentrale Perspektiven für Verbindungen von digitalen Medientechnologien und Nachhaltigkeit in den Fokus: Information and Communication Technology (ICT) for Sustainability und Sustainable ICT (Santarius u.a. 2023). Mit Blick auf die KI-Systemen zugrunde liegenden Medientechnologien können vielfältige Bezüge zwischen KI-Systemen und (Nicht-)Nachhaltigkeit zu diesen Arbeiten hergestellt werden. Während in vielen gesellschaftlichen Bereichen wie Mobilität, Wohnen, Energie, Ernährung – als auch in weiten Teilen im Kontext von Digitalisierung – die negativen Klimawirkungen (wie durch Verbrennung fossiler Energieträger, Rodung, Bebauung und Nutzung von Grünflächen, umweltschädliche Förderung von Rohstoffen) gesellschaftlich (weitgehend) präsent sind und kontrovers diskutiert werden, wird im Kontext von KI-Systemen, deren Anwendungsfelder in Gesellschaften nach und nach am Wachsen sind (Daheim / Wintermann 2019; Nationale Akademie der Wissenschaften 2024; World Economic Forum 2025), bislang selten oder kaum über deren negative (sozio-)ökologische Umwelt(aus)wirkungen gesprochen (Sonnet u.a. 2024; Fischer / Puschermann 2021). Der größte Teil der Entwicklung und Anwendung von KI-Systemen findet derzeit ohne direkten Nachhaltigkeitsbezug statt. Das heißt, dass zum einen in der Entwicklung und Anwendung von KI die Nachhaltigkeit dieser Systeme nicht im Fokus steht sowie zum anderen der Einsatz dieser Systeme im Kontext nachhaltiger Entwicklung nur den (kleinen) Rand der möglichen Anwendungen von KI ausmacht (Rhode u.a. 2021:16-18; Sonnet u.a. 2024). Da sowohl eine Zukunft ohne digitale Medientechnologien – und ohne KI – kaum (mehr) vorstellbar ist (Bendel 2018) als auch Bestrebungen für eine nachhaltige Entwicklung in gesellschaftlichen Transformationsprozessen weiterhin bestehen werden (Fladvad / Hasenfratz 2020), ergibt sich die Notwendigkeit, die Verbindungslinien und Wechselwirkungen zwischen Digitalisierung und Nachhaltigkeit systematisch zu analysieren und aktiv zu gestalten (Lange / Santarius 2020). Hierbei sind verschiedene (Teil-)Bereiche von Gesellschaft sowie gesellschaftliche Akteur*innen gefragt, jeweilige Verbindungen von digitalen Medientechnologien, KI-Systemen und Nachhaltigkeit zu entwickeln und umzusetzen – so auch in Bildungskontexten.

Um diese Verbindungen und ihre Implikationen fundiert diskutieren zu können, werden im Folgenden zunächst die technologischen Grundlagen von Machine Learning bis zur Allgemeinen Künstlichen Intelligenz dargestellt, bevor die spezifischen Zusammenhänge von KI und Nachhaltigkeit dargelegt und schließlich Perspektiven für eine (medien-)pädagogische Gestaltung dieser Transformationsprozesse entwickelt werden.

Von Machine Learning bis zur Allgemeinen Künstlichen Intelligenz

Künstliche Intelligenz (KI) hat sich zu einem Sammelbegriff für verschiedene Technologien entwickelt, die menschenähnliche Problemlösungsfähigkeiten nachbilden. Ein zentraler Bereich ist dabei das maschinelle Lernen (Machine Learning), das bereits 1959 von Arthur Samuel als „Forschungsfeld, das Computern die Fähigkeit zum Lernen gibt, ohne explizit programmiert zu werden“ (Samuel 1959:210) definiert wurde. Anders als bei klassischer Softwareentwicklung, wo jeder Schritt genau vorgegeben werden muss, können Machine-Learning-Systeme aus Beispielen lernen und Muster erkennen.

In den letzten Jahren haben besonders generative KI-Systeme für Aufsehen gesorgt, die Texte, Bilder, Videos oder Musik erzeugen. Diese Systeme erfordern enorme Mengen an Rechenleistung und haben einen sehr hohen Energiebedarf (Tomlinson u.a. 2023).

Während aktuelle KI-Systeme nur in bestimmten Bereichen erfolgreich sind, zeichnet sich bereits die nächste Entwicklungsstufe ab: Künstliche Allgemeine Intelligenz (Artificial General Intelligence, kurz AGI). AGI beschreibt keine einzelne technologische Innovation, sondern einen schrittweisen Prozess hin zu Systemen, die in vielen kognitiven Aufgaben mindestens menschliches Niveau erreichen können (Morris u.a. 2024). Systeme wie ChatGPT werden als Emerging AGI eingestuft (ebd.).

Diese Evolution von KI-Systemen wirft grundlegende gesellschaftliche Fragen auf und erfordert eine breite Diskussion über ethische Leitplanken (Coeckelbergh 2020; Brynjolfsson 2022) und nachhaltige Entwicklungspfade (Rhode u.a. 2021; Bits & Bäume 2022).

Besonders im Bildungskontext ist es wichtig, nicht nur die technischen Möglichkeiten zu verstehen, sondern auch die gesellschaftlichen Auswirkungen kritisch zu reflektieren (Autenrieth 2024; Khan 2024). Um die Chancen und Risiken von KI-Systemen in ihrer ganzen Tragweite erfassen zu können, bedarf es dabei eines differenzierten Verständnisses von Nachhaltigkeit, das die Verwobenheit ökologischer, sozialer und ökonomischer Dimensionen berücksichtigt und deren komplexe Zusammenhänge in den Blick nimmt.

KI und Nachhaltigkeit

Klimakrise und KI-Entwicklung weisen strukturelle Parallelen auf: Beide sind durch fundamentale Ungewissheit bei gleichzeitig hoher Handlungsrelevanz gekennzeichnet. Die Gesellschaft steht in beiden Bereichen vor potenziell irreversiblen Veränderungen mit schwer vorhersehbaren Auswirkungen (z.B. klimabezogene Tipping Points oder Übergang von AGI zu ASI, d.h. zur Artificial Super Intelligence; Aschenbrenner 2024; Kissinger u.a. 2024; Tegmark 2017). Wenn nun allerdings im Kontext der KI-Entwicklung argumentiert wird, KI könne ihre Nachhaltigkeitsprobleme allein durch technische Optimierung lösen oder KI sei der Schlüssel zur Lösung der Klimakrise (technologischer Solutionismus), dann ist dies aus mehreren Gründen kritisch zu betrachten (Morozov 2014). Diese Kritik richtet sich dabei nicht grundsätzlich gegen technologische Lösungsansätze selbst, sondern gegen eine oberflächliche Form der Problembearbeitung. Drei Aspekte sind hierbei zentral: Erstens erfordern komplexe Probleme wie der Klimawandel neben technologischen auch soziale, politische und wirtschaftliche Lösungsstrategien, die auf einem tieferen Verständnis der Problemursachen basieren. Zweitens kann die Fokussierung auf vermeintliche ‚Wunderlösungen‘ (technological fix) von notwendigen strukturellen Veränderungen ablenken. Drittens können technologische Lösungen selbst neue, unvorhergesehene Probleme erzeugen, die wiederum bewältigt werden müssen (ebd.).

Nachhaltigkeitsrisiken und -potenziale von KI-Systemen

Die Auseinandersetzung mit den Umweltwirkungen von KI-Systemen hat sich in den letzten Jahren grundlegend gewandelt. Während die Diskussion lange Zeit primär auf einzelne Kennzahlen wie den Energieverbrauch beim Training großer Sprachmodelle fokussiert war (Strubell u.a. 2019), zeigt neuere Forschung die Notwendigkeit einer differenzierteren Betrachtung der tatsächlichen Umweltwirkungen über den gesamten Lebenszyklus von KI-Systemen (Tomlinson u.a. 2024). Über den reinen Energieverbrauch hinaus müssen jedoch weitere sozio-ökologische Auswirkungen berücksichtigt werden, wie zum Beispiel:

  • Sozio-ökologische Folgen der Rohstoffgewinnung, aber auch Herstellung, Nutzung und Entsorgung von (digitalen) Medientechnologien: Die Herstellung digitaler Medientechnologien verursacht erhebliche ökologische und soziale Probleme (Lange / Santarius 2020). Der Abbau seltener Erden für Smartphones und Computer führt zu Umweltverschmutzung, Wasserverknappung und Gesundheitsschäden in Abbaugebieten (ebd.). Die Herstellung ist energie- und ressourcenintensiv (u.a. enorme Mengen an elektrischer Energie, Wasser, seltene Erden, Santarius u.a. 2023), während die kurzen Produktzyklen zu massivem Elektroschrott (E-Waste, Quinto u.a. 2025) führen. Sozial entstehen Konflikte um Rohstoffe, prekäre Arbeitsbedingungen in der Produktion und ungleiche Verteilung der Umweltlasten zwischen Industrie- und Entwicklungsländern (Lange / Santarius 2020). Im Kontext der Entwicklung, des Trainings und der Nutzung von KI-Anwendungen wird darüber hinaus auf entsprechende sozio-ökologische Auswirkungen verwiesen (Schütze 2024; Strubell u.a. 2019; Dhar 2020).
  • Digitale Ungleichheit: Digitale Ungleichheit bzw. Digital Divide beschreibt die ungleiche Verteilung des Zugangs zu und der Nutzung von digitalen Medientechnologien (di Maggio / Hargittai 2001; Verständig u.a. 2016). Diese manifestiert sich in verschiedenen Dimensionen: geografisch, sozioökonomisch, demografisch und kulturell. Die Kluft verstärkt bestehende gesellschaftliche Ungleichheiten, da digitale Teilhabe zunehmend für Bildung, Arbeit und gesellschaftliche Partizipation erforderlich ist (Autenrieth u.a. 2025). Ein AI Divide (vgl. Bubeck u.a. 2023; Carter u.a. 2020), als Manifestation digitaler Ungleichheit, bezeichnet vor diesem Hintergrund die ungleiche Verteilung von Künstlicher Intelligenz-Technologien und deren Potenziale zwischen verschiedenen Gesellschaftsgruppen und Ländern weltweit (ebd.). Dies verstärkt globale Machtasymmetrien und kann zu neuen Formen der Abhängigkeit führen. Die Konzentration von KI-Expertise und -ressourcen bei wenigen Akteur*innen schafft strukturelle Benachteiligungen für bestimmte Akteur*innen eines Landes sowie zwischen Ländern weltweit (Mathur / Chamuah 2025).
  • Digitaler Kolonialismus: Digitaler Kolonialismus (Nothias 2025; Coleman 2019) beschreibt neue Formen der Abhängigkeit und Ausbeutung durch digitale Technologien. Westliche Tech-Konzerne extrahieren Daten aus dem Globalen Süden, während die Wertschöpfung in den Industrieländern stattfindet. Diese Praxis reproduziert koloniale Muster: Rohstoffe (Daten) werden exportiert, verarbeitete Produkte (KI-Services) importiert (auch beschrieben unter Datenkolonialismus, Couldry / Mejias 2019). Gleichzeitig entstehen technologische Abhängigkeiten von dominierenden Plattformen und Standards. Der Begriff umfasst auch die kulturelle Hegemonie westlicher Digitalkonzerne und deren Einfluss auf lokale Märkte und Gesellschaften (Nothias 2025). Erweitert liegt mit dem Konzept des Cyberkolonialismus (Tuzcu 2021) ein Ansatz vor, welcher die Fortsetzung kolonialer Macht- und Herrschaftsverhältnisse im digitalen Raum bezeichnet, bei der eine technologische Elite Kontrolle über Daten und Algorithmen Wissen monopolisiert und so globale Ungleichheiten reproduziert. Künstliche Intelligenz-Systeme und -anwendungen bergen das Risiko diese globalen Auswirkungen eines digitalen Kolonialismus zu verstärken (Muldoon 2023).
  • Digitaler Kapitalismus: Digitaler Kapitalismus (Carstensen u.a. 2023) bezeichnet die Transformation kapitalistischer Strukturen durch digitale Technologien. Zentral sind datengetriebene Geschäftsmodelle, Plattformökonomien und algorithmische Steuerung (Staab 2019). Tech-Konzerne akkumulieren Kapital durch Datensammlung, Netzwerkeffekte und Marktkonzentration (ebd.). Charakteristisch sind neue Formen der Wertschöpfung, veränderte Arbeitsbeziehungen und erhöhte Überwachungskapazitäten (Carstensen u.a. 2023; Pfeiffer 2022). Hieraus resultiert eine Verstärkung gesellschaftlicher Ungleichheiten weltweit sowie neue Formen der Entfremdung des Subjekts durch algorithmische Kontrolle von Arbeit und Konsum (ebd.). Künstliche Intelligenz-Systeme und -anwendungen finden in diesem Zusammenhang Verwendung im Bereich Kommerzialisierung, Extraktion und Machtkonzentration. Diese Aspekte stehen hinter der unaufhaltsamen Expansion von Technologiekonzernen und -plattformen und der Monopolisierung im Bereich von KI – mit dem Risiko, dass wenige KI-Giganten Daten, KI-Expertise und Rechenkapazitäten kontrollieren, wodurch sie allein über Entwicklung, Nutzung und gesellschaftliche Auswirkungen von KI entscheiden (Verdegem 2022).

Die bis hier beschriebenen Herausforderungen und Problemlagen wie die ökologischen und sozialen Folgen der Rohstoffgewinnung, digitale Ungleichheit, neue Abhängigkeitsverhältnisse und kapitalistische Dynamiken zeigen, wie komplex und vielschichtig das Verhältnis von KI, digitalen Medientechnologien und Nachhaltigkeit ist. Um dieser Komplexität systematisch zu begegnen und unterschiedliche Handlungsoptionen sichtbar zu machen, haben sich zwei komplementäre Perspektiven herausgebildet:

  • KI für nachhaltige Entwicklung (AI for Sustainability) bezeichnet den gezielten Einsatz von KI-Systemen zur Verwirklichung von Nachhaltigkeitszielen. Dazu zählen etwa das Monitoring von Ökosystemen, die Optimierung von Klimaschutzmaßnahmen oder die Verbesserung von Kreislaufwirtschaft und Ressourceneffizienz (Rolnick u.a. 2019).
  • Nachhaltige KI (Sustainable AI) betrachtet die sozialen und ökologischen Auswirkungen von KI-Systemen selbst, die über ihren gesamten Lebenszyklus – von der Herstellung über die Entwicklung und Verwendung bis zur Entsorgung – anfallen (Coeckelbergh 2020; Schwartz 2020; Rhode u.a. 2021). (Anmerkung: In der letzten Dekade wurden verschiedene Ansätze bzw. theoretisch-konzeptionellen Ansatzpunkte entwickelt, welche die Dimensionen „KI für nachhaltige Entwicklung“ und „Nachhaltige KI“ adressieren: Slow Tech – vgl. Whitehouse / Patrignani 2018; Digitale Suffizienz – vgl. Lange / Santarius 2020; Digital Circular Economy – vgl. Singh / Kumar 2025; Green ICT – vgl. Obaidat u.a. 2013 / Green AI – vgl. Bolón-Canedo u.a. 2024.)

Bislang dominiert in der Praxis die erste Perspektive, während die Nachhaltigkeitsaspekte der Systeme selbst oft vernachlässigt werden (Hagendorff 2020). So berücksichtigen viele Klimaschutzprojekte mit KI-Einsatz nicht die ökologischen Kosten der eingesetzten Technologien. Eine integrative Sicht, die beide Perspektiven verbindet, ist jedoch unabdingbar, um die nachhaltige Entwicklung, Herstellung, Anwendung und Entsorgung von KI-Systemen ganzheitlich zu gestalten.

Beispiel für AI for Sustainability

AlphaEarth (Brown u.a. 2025) integriert heterogene Erdbeobachtungsdaten (Optik, Radar, Lidar) zu einer durch KI verarbeitbaren Struktur. Damit lassen sich Umweltveränderungen wie Entwaldung, Wasserknappheit oder Flächenversiegelung schneller und konsistenter erfassen. Solche Datengrundlagen sind entscheidend, um Klimaschutzmaßnahmen gezielter zu planen, zu überwachen und zu evaluieren – z.B. im Rahmen von SDG-Indikatoren (Sustainable Development Goals, d.h. Messgrößen zur Erreichung der 17 globalen Nachhaltigkeitsziele der Vereinten Nationen) oder ESG-Reporting (Environmental, Social and Governance, also Nachhaltigkeitsberichterstattung zu Umwelt, Sozialem und Unternehmensführung).

Beispiel für Sustainable AI

AlphaEvolve ist ein Optimierungssystem, das neue Heuristiken und Code-Verbesserungen entwickelt (Novikov 2025). In der Praxis führte dies u.a. zu einem 0,7% Effizienzgewinn in Googles globalem Rechenzentrums-Scheduling. Das entspricht einer permanenten Rückgewinnung von Ressourcen in der Größenordnung von Hunderttausenden Rechenstunden jährlich. Um dies einzuordnen, ist es hilfreich, die Power Usage Effectiveness (PUE) als Messgröße für die  Effizienz von Rechenzentren zu betrachten. Diese Kennzahl beschreibt das Verhältnis zwischen dem gesamten Stromverbrauch eines Rechenzentrums und dem Anteil, der tatsächlich für IT-Hardware genutzt wird. Ein PUE von 1,10 bedeutet, dass für 1,00 kWh Stromverbrauch der IT-Hardware insgesamt 1,10 kWh für den gesamten Rechenzentrumsbetrieb benötigt werden. Der Rest entfällt auf Kühlung und Infrastruktur. Moderne Rechenzentren erreichen heute Werte um 1,1. Noch vor zehn Jahren benötigten viele Rechenzentren im Durchschnitt fast 60 Prozent mehr Strom für Kühlung und Infrastruktur als für die eigentliche Rechenarbeit (Patterson u.a. 2021). Wenn AlphaEvolve nun 1% der benötigten Rechenzeit einspart, reduziert sich nicht nur der direkte Energiebedarf, sondern, multipliziert über tausende Server und Standorte, auch die indirekte Klimawirkung erheblich. Legt man den jährlichen Stromverbrauch moderner Hyperscale-Rechenzentren zugrunde, kann ein solcher Effizienzgewinn im Google-Maßstab einer Strommenge entsprechen, die ausreichen würde, um den Jahresbedarf von mehreren Zehntausend durchschnittlichen EU-Haushalten zu decken (Novikov 2025).

Rolle der Inferenz-Effizienz

Neben Optimierungen in der Entwicklung und beim Training haben sich in den letzten Jahren insbesondere in der Phase der Inferenz, also beim Einsatz eines bereits trainierten Modells zur Verarbeitung neuer Eingaben, große Effizienzsteigerungen ergeben. Messungen zeigen, dass der Energiebedarf pro Inferenz zwischen 2020 und 2024 durch Fortschritte in der Modellarchitektur, den Einsatz spezialisierter Hardware und gezielte Software-Optimierungen um den Faktor 6–7 gesunken ist (Hoffmann u.a. 2023). Diese Reduktion bedeutet, dass heutige KI-Systeme für dieselbe Rechenaufgabe deutlich weniger Strom benötigen als noch vor wenigen Jahren, was unmittelbare Einsparungen bei den daraus resultierenden CO₂-Emissionen ermöglicht.

Die Bedeutung solcher Effizienzgewinne wird besonders deutlich, wenn man berücksichtigt, dass Inferenz in vielen Anwendungsfeldern einen sehr großen Anteil am gesamten Energieverbrauch eines KI-Systems ausmacht (Patterson u.a. 2021). Werden diese Verbesserungen in großem Maße umgesetzt, können die kumulierten Einsparungen beträchtlich sein, insbesondere in Rechenzentren, in denen täglich Millionen von Inferenzoperationen ausgeführt werden. Effizienzsteigerungen wirken damit in beiden Nachhaltigkeitsperspektiven: In der Perspektive der Sustainable AI reduzieren sie den ökologischen Fußabdruck der Systeme selbst, in der Perspektive AI for Sustainability erleichtern sie den großskaligen Einsatz ressourcenschonender Lösungen.

Gleichzeitig zeigt der direkte Vergleich mit menschlichen Aktivitäten überraschende Effizienzpotenziale: Bei der Texterstellung emittieren KI-Systeme zwischen 130- und 1.500-mal weniger CO₂e (CO₂-Äquivalent) pro Seite als menschliche Autor*innen. Während ChatGPT etwa 2,2 g CO₂e pro Textseite verursacht, entstehen bei der Texterstellung durch eine Person in den USA etwa 1.400 g CO₂e, in Indien etwa 180 g CO₂e (Tomlinson u.a. 2024). Ähnliche Verhältnisse zeigen sich bei der Bilderstellung.
Darüber hinaus zeigen neuere Lebenszyklusanalysen, dass KI-Nutzung im Verhältnis zu vielen Alltagsaktivitäten einen vergleichsweise geringen Fußabdruck haben kann, besonders bei der Inferenz (Ren u.a. 2024):

  • KI vs. Video-Streaming: Eine Stunde KI-Textinteraktion benötigt ca. 0,2–0,5 kWh, während HD-Video-Streaming bei 0,5–2,5 kWh liegt.
  • KI vs. Rindfleischproduktion: Tägliche KI-Nutzung über ein Jahr hinweg verursacht etwa 50–100 kg CO₂e pro Nutzer*in, während 1 kg Rindfleisch etwa 60 kg CO₂e verursacht. Wenige Kilogramm Rindfleisch entsprechen also einem ganzen Jahr KI-Nutzung.

Rebound-Effekte

Technische Verbesserungen, wie die Verringerung des Energiebedarfs pro Inferenz, garantieren jedoch nicht automatisch, dass der Gesamtenergieverbrauch sinkt. Steigt die Nutzung schneller als die Effizienz pro Einheit, kann der Verbrauch insgesamt sogar zunehmen. Dieses Phänomen wird als Rebound-Effekt bezeichnet:

  1. Nachfrage-Rebound: Effizientere und günstigere Modelle ermöglichen es, „Intelligenz“ in deutlich mehr Produkte und Dienste zu integrieren. Das steigert die Gesamtnutzung und kann Effizienzgewinne vollständig aufzehren.
  2. Effizienz-Druck: Gleichzeitig erzeugen Klimaziele und Kostendruck den Anreiz, Systeme noch effizienter zu machen, um den absoluten Ressourcenverbrauch zu bremsen.

Die Gestaltung des Verhältnisses von KI und Nachhaltigkeit erfordert vor diesem Hintergrund zwingend gesellschaftspolitische Rahmenbedingungen (WBGU 2019). Zentral ist hier insbesondere die Forderung nach mehr Transparenz beim Ressourceneinsatz von KI-Systemen. Die Herausforderungen der Nicht-Nachhaltigkeit können dabei nur durch ein Zusammenspiel verschiedener Handlungsebenen bewältigt werden: Einerseits muss das politische System regulierend eingreifen, um nicht-nachhaltige Praktiken einzugrenzen (Autenrieth 2024). Andererseits kommt der Bildung die wichtige Aufgabe zu, Menschen zu befähigen, die Notwendigkeit nachhaltigen Handelns zu erkennen und sich aktiv an entsprechenden Entscheidungsprozessen und der Gestaltung nachhaltiger Lebensweisen zu beteiligen (Friedrich 2021). Vor diesem Hintergrund stellt sich die Frage, welche spezifischen Aufgaben sich für Bildungskontexte im Spannungsfeld von KI und Nachhaltigkeit ergeben.

(Medien)Bildung für KI und Nachhaltigkeit

In Anbetracht der Notwendigkeit, KI-Systeme nachhaltig zu gestalten und anzuwenden, rücken neben Maßnahmen zur politischen Rahmung und Regelung auch Bildungskontexte und -konzepte in den Fokus. Sie sollen Kinder, Jugendliche und Erwachsene dazu befähigen, sich mit Blick auf die jeweiligen gesellschaftlichen Realitäten an der nachhaltigen Gestaltung und Anwendung von KI-Systemen zu beteiligen. Wichtig ist hierbei jedoch, dass Bildungskontexte nicht mit der Hoffnung und Aufgabe überfrachtet werden, ‚die Welt zu retten‘. Das heißt, dass Bildungskontexte und -konzepte nicht die Aufgaben von Politik übernehmen können und sollen, sondern in ihrem Aufgabenbereich für die Notwendigkeit von nachhaltigem Handeln sensibilisieren. Auch darf eine Verlagerung der Auseinandersetzung mit und Bearbeitung von Nicht-Nachhaltigkeit in Bildungskontexte, und so gewissermaßen in die Zukunft, nicht als Legitimation eines Nicht- oder zögerlichen Handelns in der Gegenwart angesehen werden (Öztürk u.a. 2023).

Zeichnen sich Verbindungen der Entwicklung, Herstellung, Anwendung und Entsorgung von KI-Systemen (und den hierfür benötigten digitalen Medientechnologien) und Nachhaltigkeit bereits kaum ab (Rhode u.a. 2021:16), so sind diese Verbindungen in Bildungskontexten noch weniger zu finden (Maurer / Schluchter i. V.; Autenrieth / Schluchter 2025). Nicht zuletzt liegt dies daran, dass auch Verbindungen von Medienpädagogik und Bildung für nachhaltige Entwicklung (BNE), also von Disziplinen, welche sich mit diesen gesellschaftlichen Phänomenen und Fragestellungen grundsätzlich befassen, erst randständig entwickelt sind (Maurer u.a. 2024; Schluchter 2020b). Bislang liegen zum Beispiel erst wenige BNE- und Medienkompetenzmodelle vor, die digitale Medientechnologien und Nachhaltigkeit miteinander verzahnen, wie DIGCOMP (Carretero u.a. 2017) oder BNE-Kompetenzen (Rieckmann 2010) – KI-Systeme sind hierbei bislang noch nicht explizit aufgeführt.

In den letzten Jahren lag der Fokus im Kontext von Bildung auf der Entwicklung von Kompetenzformulierungen in Bezug auf KI - im Besonderen in Überlegungen zu AI Literacy (Ng u.a. 2021; Yang u.a. 2025; auch Beranek u.a. 2024; Barberi u.a. 2025; einhergehend auch in Verbindung mit Konzepten wie Prompt Literacy oder Algorithmic Literacy, vgl. Carter u.a. 2020), zum Teil in Verbindung mit Konzepten wie Media/Digital Literacy (Tiernan u.a. 2023) oder mit AI Competencies (Long / Magerko 2020; Chiu u.a. 2024) (zur Übersicht Tadimalla / Maher 2025). Eine Zusammenführung mit Blick auf Fragen von Nachhaltigkeit und/oder einer Bildung für nachhaltige Entwicklung liegt, wie bereits angeführt, (noch) nicht vor – erste Ansatzpunkte finden sich jedoch in der Verbindung des Konzepts Ecomedia Literacy und KI (vgl. López / Guldin 2025).

Vor diesem Hintergrund ist es von Bedeutung, dass Bildungskonzepte sowie einhergehende Kompetenzmodelle und -formulierungen KI-Systeme und (Nicht-)Nachhaltigkeit zusammenbringen – von der Ebene der Kompetenzformulierungen über die Ebene der Bildungsinhalte bis hin zu konkreten didaktischen Szenarien (Maurer / Schluchter i. V.).

Im Kern geht es darum, Möglichkeitsräume zur Reflexion der Komplexität des Verhältnisses von (Nicht-)Nachhaltigkeit und KI-Systemen zu eröffnen, sodass Kinder, Jugendliche und Erwachsene in die Lage versetzt werden, entsprechende gesellschaftliche Transformationsprozesse mitzugestalten. In diesem Zusammenhang bieten (medien-)pädagogische Ermöglichungsräume (Schluchter 2020a) einen geeigneten Zugang zur Auseinandersetzung (Schluchter / Sieben 2022).

(Medien-)Pädagogische Ermöglichungsräume sind ein Ausgangspunkt, um Empowerment und Resilienz mit Bildungspraxen im Kontext von KI-Systemen, digitalen Medientechnologien und Nachhaltigkeit zusammenzudenken. Sie sollen Kindern, Jugendlichen und Erwachsenen Rahmenbedingungen, Anregungen und Impulse sowie Anlässe und Situationen bieten, welche ein alleiniges oder gemeinsames Nachdenken über die Zusammenhänge von KI-Systemen und (Nicht-)Nachhaltigkeit ermöglichen. Gleichzeitig zeigen sie mögliche Wertorientierungen auf und eröffnen Raum für die Entwicklung von Perspektiven für individuelles und/oder politisches Handeln. Der Kern (medien-)pädagogischer Ermöglichungsräume liegt in

  • einem Denken in Alternativen: Ein kritisches Hinterfragen der eigenen oder gesellschaftlich verhandelten Weltsichten (z.B. Anthropozentrismus, Gegenüberstellung Mensch - Natur) sowie eine Suche nach und Entwicklung von alternativen Weltsichten (z.B. Biozentrismus, Entanglements)
  • einer Reflexion dieser Denkvoraussetzungen: Ein Verstehen gesellschaftlicher Phänomene entlang ihrer historisch-gesellschaftlichen Entwicklung, ein Denken in vernetzteren Zusammenhängen - eine Suche nach Antworten auf die Frage „Warum sind die Dinge der Welt, so wie sie sind?“.

Hier lassen sich auch Bezüge zur Notwendigkeit der Reflexion einer „Verklärung von Technologie“ (Sühlmann-Faul / Rammler 2018:86-87) herstellen – etwa in Form des Ausblendens negativer sozio-ökologischer Umwelt(aus)wirkungen oder der Überzeugung, digitale Medientechnologien seien ein „technological fix“ (Schütze 2024).

Ebenso relevant ist die Auseinandersetzung mit „mentalen Pfadabhängigkeiten“, wie dem Festhalten an kapitalistisch geprägter Wachstums- und Expansionslogik in der Bearbeitung des Klimawandels (z.B. Green Capitalism) (ebd.).

Gleichermaßen ist die Auseinandersetzung mit Dilemmata, Ambivalenzen und Widersprüchen, welche sich im Rahmen der Zusammenhänge von KI-Systemen, digitalen Medientechnologien und (Nicht-)Nachhaltigkeit aus Perspektive der Kinder, Jugendlichen und Erwachsenen ergeben, ein wesentliches Element dieser Ermöglichungsräume. Aufgrund der Komplexität dieser Zusammenhänge, der oftmals fehlenden Transparenz sowie der gegenwärtig wenig nachhaltigen gesellschaftlichen Strukturen des Aufwachsens mit KI-Systemen und digitalen Medientechnologien ergeben sich vielfältige Dilemmata, Ambivalenzen und Widersprüche, mit denen Einzelne umgehen müssen. (Medien-)pädagogische Ermöglichungsräume bieten hier Raum für die gemeinsame Entwicklung individueller oder gesellschaftlicher Handlungsmöglichkeiten.

Abb_1
Abb. 1: (Medien)Pädagogische Ermöglichungsräume

Bildung kann in diesem Zusammenhang zu einem Raum werden, in dem Menschen nicht nur kompetent im Umgang mit KI werden, sondern in einem tieferen Sinn dazu befähigt werden, kritisch über ihre Selbst- und Weltverhältnisse zu reflektieren, um gemeinschaftlich zu entscheiden, wie sich Zusammenleben künftig gestalten soll (Autenrieth u.a. 2025). Diese Transformation von Selbst- und Weltverhältnissen kann aus der Perspektive des transformativen Lernens (Mezirow 1991) durch krisenhafte Erfahrungen ausgelöst werden, die – als anregendes Moment verstanden – durch Irritation oder Diskrepanz zwischen bisherigen Erwartungen und neuen, widersprüchlichen Erfahrungen einen Reflexionsprozess auslösen, indem bisherige Deutungsmuster, sogenannte „Frames of Reference“ (Taylor 2017:17), bzw. Habitus (Bourdieu 1987) infrage gestellt werden.

Gerade durch KI entstehen vielfältige Situationen, in denen ein solches Auseinanderdriften von Erwartungen und Wirklichkeit erfahren wird. KI kann bestehende Vorstellungen von Kreativität, Arbeit, Intelligenz oder menschlichen Fähigkeiten massiv irritieren und damit zu desorientierenden Dilemmata führen (Autenrieth 2025). Werden diese Irritationen pädagogisch begleitet, eröffnet sich das Potenzial für transformative Bildungsprozesse: Subjekte hinterfragen und erweitern ihr bisheriges Deutungsrepertoire und gewinnen dadurch die Fähigkeit, auf technologische wie gesellschaftliche Wandlungsprozesse neu zu reagieren.

Transformative Bildung geht aber über die Aneignung von Wissen über KI hinaus und möchte zur Reflexion über eigene Grundannahmen, Haltungen und Werte anregen und Menschen dabei unterstützen, Unsicherheit in eine produktive Auseinandersetzung zu wenden und bestehende Prämissen zu hinterfragen (Mezirow 1996:46), z.B. welches technologische Fortschrittsverständnis sie übernommen haben, welche impliziten Normen über Intelligenz in sie eingeschrieben sind oder welche Vorstellungen von Nachhaltigkeit bislang unreflektiert geblieben sind. Solche kritischen Reflexions- und Diskursphasen schaffen erst die Basis, um Nachhaltigkeitsfragen im Umgang mit KI angemessen bearbeiten zu können.

Damit eine solche Transformation gelingen kann, bedarf es spezifischer didaktisch aufbereiteter Bildungssettings. Hans-Christoph Koller (2012) wie auch Jack Mezirow (1996) betonen, dass Bildungsprozesse, die tiefgreifende Veränderung zum Ziel haben, nicht allein durch kognitive Wahrnehmung stimuliert werden. Notwendig sind Reflexionsräume, in denen Lernende Irritationen aussprechen, Perspektivenvielfalt erleben und im geschützten Rahmen neue Handlungsoptionen erproben können (Autenrieth 2025) – wie angelegt im Ansatz der (medien)pädagogischen Ermöglichungsräume (Schluchter 2020a).

In dieser Perspektive eröffnet Nachhaltigkeit als Bezugspunkt transformativer Bildung die Möglichkeit (und Notwendigkeit), dass Bildungsprozesse dazu anregen, nicht nur auf KI-Technologien und -anwendungen (und deren gesellschaftliche Implementierung) zu reagieren, sondern gemeinsame Perspektiven der Entwicklung und Nutzung von KI zu entfalten, welche am (ethisch-philosophischen) Kern von KI-Systemen und -Anwendungen ansetzen (z.B. Bearbeitung von AI-Biases und/oder von Techno-Ableismus). So wird Nachhaltigkeit mit Blick auf digitale Medientechnologien und KI-Systeme zum steten und unaufhebbaren Reflexionsmoment der Entwicklung (Sustainable AI) und gesellschaftlichen Implementierung und Nutzung von KI-Technologien und -Anwendungen (AI for Sustainability).

Ausblick

Angesichts der ernüchternden Erkenntnis des Berichts Earth for All (Dixson-Declève u.a. 2022) – erschienen 50 Jahre nach Grenzen des Wachstums (Meadows u.a. 1972) –, dass die Ursachen des Klimawandels bekannt sind, wir eigentlich wissen, was zu tun ist, unser Handeln jedoch nach wie vor viel zu langsam und kleinschrittig bleibt, wirken aktuelle Meldungen über den wachsenden Energiebedarf von KI-Systemen besorgniserregend. Insbesondere Überlegungen, fossile Rohstoffe wieder verstärkt zu fördern oder Atomkraftwerke neu zu bauen, um diesen Energiebedarf zu decken, scheinen die Lehren aus fünf Jahrzehnten Klimaforschung zu ignorieren.

Die jüngsten Entwicklungen im Bereich der KI-Systeme zeigen jedoch, dass der Konflikt zwischen Leistungsfähigkeit und Nachhaltigkeit nicht unausweichlich ist – etwa durch Ansätze wie Liquid Neural Networks, die eine deutlich bessere Energieeffizienz versprechen. Die Gestaltung solch nachhaltiger Entwicklungen erfordert allerdings eine breite gesellschaftliche Debatte und aktive Beteiligung. Hier wird die Bedeutung einer Bildung für nachhaltige Entwicklung deutlich, die intergenerationell entlang der gesamten Bildungskette wirkt und im Zusammenspiel mit medienpädagogischen Ermöglichungsräumen Menschen befähigt, Zukunftsvorstellungen zu entwickeln und in gesellschaftliche Aushandlungsprozesse einzubringen. Nur so kann das Potenzial von KI-Systemen für eine nachhaltige Zukunft verwirklicht werden – nicht als technologischer ‚Quick Fix‘, sondern als Teil einer grundlegenden gesellschaftlichen Transformation.

 

Verwendete Literatur

  • Aschenbrenner, Leopold (2024): Situational Awareness. The Decade Ahead. Online unter: https://situational-awareness.ai/wp-content/uploads/2024/06/situationalawareness.pdf (letzter Zugriff am 18.08.2025).
  • Autenrieth, Daniel (2025): Transformative Bildungsprozesse und Partizipation. Eine empirische Untersuchung im Kontext von Künstlicher Intelligenz und der Lehrkräftebildung. München: Kopaed.
  • Autenrieth, Daniel (2024): Auf dem Weg zur Singularität: Implikationen für Bildung, Kreativität und den Bedarf der Mitgestaltung. In: Ludwigsburger Beiträge zur Medienpädagogik 24:1–25.
  • Autenrieth, Daniel / Jan-René Schluchter (2025): Menschliche Existenz, (Nicht)Nachhaltigkeit & Künstliche Intelligenz: AI-Safety und AI-Alignment als Reflexionsgröße der Medienpädagogik. In: Medienimpulse 63 (1).
  • Autenrieth, Daniel / Jan-René Schluchter / Lea Schulz (2025): AI is all you need? Künstliche Intelligenz, gesellschaftliche Teilhabe und Perspektiven transformativer Bildung auf die Herausforderungen eines AI Divide. In: Zeitschrift für Inklusion 3.
  • Barberi, Alessandro / Thomas Ballhause / Florian Danhel / Klaus Himpsl-Gutermann / Karin Schirmer (Hrsg.) (2025): Künstliche Intelligenz, Themenheft der Medienimpulse. In: Medienimpulse, Bd. 63. Nr. 1.
  • Bendel, Oliver (2018): Chancen und Risiken 4.0. In: GS1 network 4:14–18.
  • Beranek, Angelika / Elisabeth Engelhardt / Eike Rösch (Hrsg.) (2024): Medienpädagogik und KI, Themenheft der merz - Medien und Erziehung. In: merz - Medien und Erziehung, Bd. 68. Nr. 3.
  • Binswanger, Mathias (2001): Technological Progress and Sustainable Development. What about the Rebound Effect? In: Ecological Economics 36 (1):119–32.
  • Bits & Bäume (2022): Digitalisierung zukunftsfähig und nachhaltig gestalten. Politische Forderungen der Bits & Bäume 2022. Online unter: https://bits-und-baeume.org/ (letzter Zugriff am 18.08.2025).
  • Bourdieu, Pierre (1987): Die feinen Unterschiede: Kritik der gesellschaftlichen Urteilskraft. 29. Auflage. Frankfurt am Main: Suhrkamp.
  • Brown, Christopher F. / Michal R. Kazmierski / Valerie J. Pasquarella et al. (2025): AlphaEarth Foundations: An embedding field model for accurate and efficient global mapping from sparse label data. arXiv:2507.22291. Preprint, arXiv, Juli 29.
  • Brynjolfsson, Erik (2022): The Turing Trap: The Promise & Peril of Human-Like Artificial Intelligence. arXiv:2201.04200. Preprint, arXiv, Januar 11.
  • Bubeck, Sébastien / Varun Chandrasekaran / Ronen Eldan et al. (2023): Sparks of Artificial General Intelligence: Early experiments with GPT-4.
  • Carretero, Stephanie / Riina Vuorikari / Yves Punie (2017): The digital competence framework for citizens. No. 5. Bd. 21. Publications Office of the European Union.
  • Carson, Rachel (1962): Silent Spring. Boston: Houghton Mifflin.
  • Carstensen, Tanja / Simon Schaupp / Sebastian Sevignani (Hrsg.) (2023): Theorien des digitalen Kapitalismus. Arbeit und Ökonomie, Politik und Subjekt. Berlin: Suhrkamp.
  • Carter, Lemuria / Dexin Liu / Cynthia Cantrell (2020): Exploring the intersection of the digital divide and artificial intelligence: A hermeneutic literature review. In: AIS Transactions on Human-Computer Interaction 12 (4):253–75.
  • Chiu, Thomas KF / Zahrah Ahmad / Mirjam Ismailov / Ismaila Temitayo Sanusi (2024): What are artificial intelligence literacy and competency? A comprehensive framework to support them. In: Computers and Education Open 6:100171.
  • Coeckelbergh, Mark (2020a): AI Ethics. Cambridge: The MIT press.
  • Coeckelbergh, Mark (2020b): AI for Climate: Freedom, Justice, and other ethical and political challenges. In: AI Ethics 1:67–72.
  • Coleman, Daniel (2019): Digital colonialism: The 21st century scramble for Africa through the extraction and control of user data and the limitations of data protection laws. In: Michigan Journal of Race and Law 24:417–39.
  • Couldry, Nick / Ulises A Mejias (2019): The Costs of Connection: How Data is Colonizing Human Life and Appropriating it for Capitalism. Stanford: Stanford University Press.
  • Crawford, Kate (2021): Atlas of AI. Power, Politics, and the Planetary Costs of Artifical Intelligence. New Haven: Yale University Press.
  • Daheim, Cornelia / Ole Wintermann (2019): Arbeit 2050: Drei Szenarien. Neue Ergebnisse einer internationalen Delphi-Studie des Millennium Project.
  • Dhar, Payal (2020): The Carbon Impact of Articial Intelligence. In: Nature Machine Intelligence 2:423–25.
  • DiMaggio, Paul / Eszter Hargittai (2001): From the „Digital Divide" to „Digital Inequality": Studying Internet Use as Penetration Increases. No. 15. Princeton University Center for Arts and Cultural Policy Studies.
  • Dixson-Declève, Sandrine / Owen Gaffney / Jayati Gosh / Jorgen Randers / Johan Rockström / Per Espen Stocknes (2022): Earth for All - Ein Survivalguide für unseren Planeten. Der neue Bericht an den Club of Rome, 50 Jahre nach „Die Grenzen des Wachstums". München: Oekom.
  • Eloundou, Tyna / Sam Manning / Pamela Mishkin / Daniel Rock (2023): GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models.
  • Faiz, Ahmad / Sotaro Kaneda / Ruochen Wang et al. (2024): LLMCarbon: Modeling the end-to-end Carbon Footprint of Large Language Models. ICLR 2024 (Wien, Österreich).
  • Fischer, Sarah / Cornelius Puschmann (2021): Wie Deutschland über Algorithmen schreibt. Eine Analyse des Mediendiskurses über Algorithmen und Künstliche Intelligenz (2005-2020). Gütersloh: Bertelsmann Stiftung.
  • Fladvad, Benno / Martina Hasenfratz (2020): Einleitung. Imaginationen von Nachhaltigkeit zwischen Katastrophe, Krise und Normalisierung. In: Adloff, Frank / Fladvad, Benno / Hasenfratz, Martina / Neckel, Sighard (Hg.): Imaginationen von Nachhaltigkeit: Katastrophe. Krise. Normalisierung. Frankfurt am Main: Campus Verlag.
  • Friedrich, Wolfgang (2021): Zur Neuvermessung der politischen Bildung im Anthropozän. In: Stainer-Hämmerle, Kathrin (Hg.): Glaube - Klima - Hoffnung: Religion und Klimawandel als Herausforderungen für die politische Bildung. Frankfurt am Main: Wochenschau Verlag.
  • Grunwald, Armin / Jürgen Kopfmüller (2021): Nachhaltigkeit. Frankfurt am Main: Campus.
  • Hagendorff, Thilo / Katharina Wezel (2020): 15 challenges for AI: or what AI (currently) can't do. In: AI & SOCIETY 35 (2):355–65.
  • Hoffmann, Jordan / Sebastian Borgeaud / Arthur Mensch et al. (2022): Training Compute-Optimal Large Language Models. Version 1. Preprint, arXiv.
  • Khan, Salman (2024): Brave new words: How AI will revolutionize education (and why that's a good thing). London: Viking. Penguin.
  • Kissinger, Henry / Eric Schmidt / Craig Mundie (2024): Genesis: Artificial Intelligence, Hope, and the Human Spirit. London: John Murray.
  • Koller, Hans-Christoph (2012): Bildung anders denken: Einführung in die Theorie transformatorischer Bildungsprozesse. Stuttgart: Verlag W. Kohlhammer.
  • Lange, Steffen / Tilman Santarius (2020): Smart Green World? Making Digitalization work for Sustainability. London: Routledge.
  • Long, Duri / Brian Magerko (2020): What Is AI Literacy? Competencies and Design Considerations. In: Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems, 1–16.
  • López, Aída / Rainer Guldin (2025): The Ecomedia Commons: An Ecomedia Literacy Analysis of ChatGPT. In: The Journal of Media Literacy. Online unter: https://ic4ml.org/journal-article/the-ecomedia-commons-an-ecomedia-literacy-analysis-of-chatgpt/ (letzter Zugriff am 18.08.2025).
  • Mathur, Vaishali / Anupama Chamuah (2025): Navigating AI and climate change in an unequal world. In: Climate Policy, 1–7.
  • Maurer, Björn / Marco Rieckmann / Jan-René Schluchter (Hrsg.) (2024): Medien - Bildung - Nachhaltige Entwicklung. Inter- und transdisziplinäre Diskurse. Weinheim: Beltz Juventa.
  • Maurer, Björn / Jan-René Schluchter (2024): Bildung für nachhaltige Entwicklung und Medienpädagogik. In: Rieckmann, Marco / Singer-Brodowski, Mandy / Bertschy, Franziska / Rauch, Franz (Hg.): Handbuch Bildung für nachhaltige Entwicklung.
  • Meadows, Donella / Dennis Meadows / Jorgen Randers / William Behrens (1972): The Limits to Growth. A Report for the Club of Rome's Project in the Predicament of Mankind. New York: Universe Books.
  • Mezirow, Jack (1996): Contemporary Paradigms of Learning. In: Adult Education Quarterly 46 (3):158–72.
  • Mezirow, Jack (1991): Transformative dimensions of adult learning. 1st ed. San Francisco: Jossey-Bass.
  • Morozov, Evgeny (2014): To Save Everything, Click Here: The Folly of Technological Solutionism. Paperback 1. publ. New York: PublicAffairs.
  • Morris, Meredith Ringel / Jascha Sohl-dickstein / Noah Fiedel et al. (2024): Levels of AGI for Operationalizing Progress on the Path to AGI.
  • Muldoon, James / Bryce A Wu (2023): Artificial Intelligence in the Colonial Matrix of Power. In: Philosophy & Technology 36:80.
  • Nationale Akademie der Wissenschaften (2024): Die Zukunft der Arbeit. Stellungnahme Januar 2024. 1. Aufl. Halle: Union der deutschen Akademien der Wissenschaften e.V. & Deutsche Akademie der Naturforscher Leopoldina e.V.
  • Ng, Davy TK / Jac KL Leung / Samuel KW Chu / Maggie S Qiao (2021): Conceptualizing AI literacy: An exploratory review. In: Computers and Education: Artificial Intelligence 2:100041.
  • Nishant, Rohit / Martin Kennedy / Jacqueline Corbett (2020): Artifical Intelligence for Sustainability: Challenges, Opportunities, and a Research Agenda. In: International Journal of Information Management 53:268–4012.
  • Nothias, Toussaint (2025): An intellectual history of digital colonialism. In: Journal of Communication, Online-Vorab-Publikation.
  • Novikov, Alexander / Ngân Vũ / Marvin Eisenberger et al. (2025): AlphaEvolve: A coding agent for scientific and algorithmic discovery. White paper. Google DeepMind. Online unter: https://storage.googleapis.com/deepmind-media/DeepMind.com/Blog/alphaevolve-a-gemini-powered-coding-agent-for-designing-advanced-algorithms/AlphaEvolve.pdf (letzter Zugriff am 18.08.2025).
  • Obaidat, Mohammad S. / Alagan Anpalagan / Isaac Woungang (Hrsg.) (2013): Handbook of Green Information and Communication Systems. Cambridge: Academic Press.
  • OECD - Organisation for Economic Co-Operation and Development (2020): Künstliche Intelligenz in der Gesellschaft. Paris: OECD Publishing.
  • Öztürk, Nilden / Daniele Francesconi / Evi Agostini (2023): Pädagogik(en) des guten Lebens im Zeichen der Zeit. In: Zeitschrift für Philosophie 10 (1):263–84.
  • Patrignani, Norberto / Diane Whitehouse (2018): Slow Tech and ICT. Cham: Springer International Publishing.
  • Patterson, David / Joseph Gonzalez / Quoc Le et al. (2021): Carbon Emissions and Large Neural Network Training.
  • Pfeiffer, Sabine (2022): Digital Capitalism and Distributive Forces. Bielefeld: Transcript.
  • Quinto, Sebastian / Nathan Law / Christopher Fletcher / Jonathan Le / Sherin Antony Jose / Pradeep L Menezes(2025): Exploring the E-Waste Crisis: Strategies for Sustainable Recycling and Circular Economy Integration. In: Recycling 10 (2):72.
  • Rehak, Rainer (2023): Zwischen Macht und Mythos: Eine kritische Einordnung aktueller KI-Narrative. In: Soziopolis - Gesellschaft beobachten. Online unter: https://www.soziopolis.de/zwischen-macht-und-mythos.html (letzter Zugriff am 18.08.2025).
  • Ren, Shaolei / Bill Tomlinson / Rebecca W. Black / Andrew W. Torrance (2024): Reconciling the Contrasting Narratives on the Environmental Impact of Large Language Models. In: Scientific Reports 14 (1):26310.
  • Rhode, Friederike / Jakob Wagner / Philipp Reinhard et al. (2021): Nachhaltigkeitskriterien für künstliche Intelligenz. Entwicklung eines Kriterien- und Indikatorensets für die Nachhaltigkeitsbewertung von KI-Systemen entlang des Lebenszyklus. Schriftenreihe des IÖW. Online unter: https://www.ioew.de/fileadmin/user_upload/BILDER_und_Downloaddateien/Publikationen/2021/IOEW_SR_220_Nachhaltigkeitskriterien_fuer_Kuenstliche_Intelligenz.pdf (letzter Zugriff am 18.08.2025).
  • Rieckmann, Marco (2010): Die globale Perspektive der Bildung für eine nachhaltige Entwicklung. Eine europäisch-lateinamerikanische Studie zu Schlüsselkompetenzen für Denken und Handeln in der Weltgesellschaft. Berlin: BWV.
  • Rolnick, David / Priya L Donti / Lynn H Kaack et al. (2019): Tackling climate change with machine learning.
  • Samuel, Arthur L. (1959): Some Studies in Machine Learning Using the Game of Checkers. In: IBM Journal of Research and Development 3 (3):210–29.
  • Santarius, Tilman / Lina Dencik / Tomás Diez et al. (2023): Digitalization and sustainability: A call for a digital green deal. In: Environmental Science & Policy 147:11–14.
  • Santarius, Tilman / Jakob Wagner (2023): Digitalization and Sustainability. A Systematic Literature Analysis of ICT for Sustainability Research. In: GAIA 32 (1):21–32.
  • Schluchter, Jan-René (2020a): Aktive Medienarbeit als Empowerment. (Medien)Pädagogische Ermöglichungsräume für Inklusion und inklusive Bildung. In: Friedrich Jahresheft XXXVIII (#schuleDIGITAL):98–101.
  • Schluchter, Jan-René (2020b): Medienbildung und (Bildung für) nachhaltige Entwicklung. In: merz - Medien und Erziehung.
  • Schluchter, Jan-René / Sieben, Gerda (2022): Digitalisierung, Nachhaltigkeit und (Medien)Bildung. Vortrag am 24. Oktober 2022 an der Martin-Luther-Universität Halle-Wittenberg. Unveröffentlichtes Manuskript.
  • Schütze, Paul (2024): The Problem of Sustainable AI: A Critical Assessment of an Emerging Phenomenon. In: Weizenbaum Journal of the Digital Society 4 (1).
  • Schwartz, Roy / Jesse Dodge / Noah A Smith / Oren Etzioni (2020): Green AI. In: Communications of the ACM 63 (12):54–63.
  • Singh, Rubee / Vikas Kumar (Hrsg.) (2025): Sustainable Innovations and Digital Circular Economy. 1st ed. 2025. Singapore: Springer Nature Singapore.
  • Sonnet, Daniel / Andreas Moring / Jörn Bethge / Henning Müller (Hrsg.) (2024): Nachhaltige Künstliche Intelligenz. Eine Zukunftsvision und ihre Hintergründe. Wiesbaden: Springer Fachmedien.
  • Staab, Philipp (2019): Digitaler Kapitalismus. Markt und Herrschaft in der Ökonomie der Unknappheit. Berlin: Suhrkamp.
  • Strubell, Emma / Ananya Ganesh / Andrew McCallum (2019): Energy and policy considerations for deep learning in NLP. In: Korhonen, Anna / Traum, David / Màrquez, Lluís (Hg.): Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics.
  • Sühlmann-Faul, Felix / Stephan Rammler (2018): Der blinde Fleck der Digitalisierung. Wie sich Nachhaltigkeit und digitale Transformation in Einklang bringen lassen. München: Oekom.
  • Tadimalla, Sai Yaswanth / Mary Lou Maher (2025): AI literacy as a core component of AI education. In: AI Magazine 46:e70007.
  • Taylor, Edward W. (2017): Transformative Learning Theory. In: Laros, Anna / Fuhr, Thomas / Taylor, Edward W. (Hg.): Transformative Learning Meets Bildung: An International Exchange. International Issues in Adult Education, volume 21. Rotterdam: Sense Publishers.
  • Tegmark, Max (2017): Life 3.0: Being human in the age of artificial intelligence. London: Allen Lane.
  • Tiernan, Patrick / Eamon Costello / Enda Donlon / Michal Parysz / Michael Scriney (2023): Information and Media Literacy in the Age of AI: Options for the Future. In: Education Sciences 13 (9):906.
  • Tomlinson, Bill / Rebecca W Black / Donald J Patterson / Andrew W Torrance (2024): The carbon emissions of writing and illustrating are lower for AI than for humans. In: Scientific Reports 14 (1):3732.
  • Tuzcu, Pinar (2021): Decoding the cybaltern: cybercolonialism and postcolonial intellectuals in the digital age. In: Postcolonial Studies 24 (4):514–27.
  • Van Wynsberghe, Aimee (2021): Sustainable AI. AI for Sustainability and the Sustainability of AI. In: AI Ethics 1:213–18.
  • Verdegem, Pieter (2022): Dismantling AI capitalism: the commons as an alternative to the power concentration of Big Tech. In: AI & Society, 1–11.
  • Verständig, Dan / Alexandra Klein / Stefan Iske (2016): Zero-Level Digital Divide. Neues Netz und neue Ungleichheiten. In: SIEGEN:SOZIAL, Nr. 1.
  • Vinuesa, Ricardo / Hossein Azizpour / Iolanda Leite et al. (2020): The role of artificial intelligence in achieving the Sustainable Development Goals. In: Nature Communications 11:233.
  • WBGU – Wissenschaftlicher Beirat der Bundesregierung Globale Umweltveränderungen (2019): Unsere gemeinsame digitale Zukunft. Berlin: WBGU.
  • WCED - World Commission on Environment and Development (1987): Our Common Future. Oxford: Oxford University Press.
  • World Economic Forum (2025): Future of Jobs Report 2025. Genf: World Economic Forum.
  • Yang, Yongju / Yue Zhang / Donglin Sun et al. (2025): Navigating the landscape of AI literacy education: insights from a decade of research (2014–2024). In: Humanities and Social Sciences Communications 12:374.

Anmerkungen

Der Beitrag ist ursprünglich in der Zeitschrift "merz - Medien und Erziehung" (Jg. 69, Ausgabe 2 2025: „Medienpädagogik und Klimakrise“) erschienen. Für die Veröffentlichung auf kubi-online wurde er durch die Autoren aktualisiert und erweitert. Wir danken dem Verlag für die Möglichkeit, den Beitrag auf kubi-online zugänglich zu machen, und den Autoren für ihre Unterstützung.

Zitieren

Gerne dürfen Sie aus diesem Artikel zitieren. Folgende Angaben sind zusammenhängend mit dem Zitat zu nennen:

Daniel Autenrieth, Jan-René Schluchter (2025/2025): Künstliche Intelligenz, Klima und Bildung - Herausforderungen und Perspektiven. In: KULTURELLE BILDUNG ONLINE: https://kubi-online.de/index.php/artikel/kuenstliche-intelligenz-klima-bildung-herausforderungen-perspektiven (letzter Zugriff am 23.09.2025).

DOI gesichert

Dieser Artikel wurde dauerhaft referenzier- und zitierbar gesichert unter https://doi.org/10.25529/mvgy-mk64.

Veröffentlichen

Alle Texte dieser Website – also ausgenommen sind Bilder und Grafiken – werden (sofern nicht anders gekennzeichnet) unter Creative Commons Lizenz cc-by-nc-nd 4.0 (Namensnennung-Nicht kommerziell-Keine Bearbeitungen 4.0 International) veröffentlicht. CC-Lizenzvertrag

Herunterladen

Dieser Artikel als PDF:

PDF erzeugen

Teilen