Fast Food für den Geist. Bildungstheoretische Reflexionen über ChatGPT
Abstract
Der vorliegende Text diskutiert aus einer gesellschaftskritischen Perspektive die Wirkung der künstlichen Intelligenz auf Kinder im Rahmen von ChatGPT. Hierbei steht ChatGPT pars pro toto für andere Chatbots. Von besonderem Interesse ist die Frage, ob und wie diese neue Technologie Einfluss auf die geistige Entwicklung von Heranwachsenden nimmt. Zu ihrer Beantwortung werden erziehungs- und bildungstheoretische sowie anthropologische Erkenntnisse herangezogen.
Hinweis: Dies ist eine Zweitveröffentlichung des Beitrags aus dem Sammelband Bildung und digitaler Kapitalismus, herausgegeben von Valentin Dander, Nina Grünberger, Horst Niesyto und Horst Pohlmann im kopaed-Verlag, München 2024. Kubi-online dankt der Autorin für diesen Beitrag und freut sich, diesen interessanten Artikel über das Dossier „Kulturelle Bildung und digitaler Kapitalismus“ (2025) der Wissensplattform Kulturelle Bildung Online breit teilen zu können.
ChatGPT ist seit einundeinem halben Jahr der Öffentlichkeit zugänglich (Anm. der kubi-online Redaktion: d. h. seit November 2022) und durchdringt in zunehmendem Maße den schulischen, beruflichen und privaten Alltag. Wer eine Frage an ChatGPT formuliert, erhält nach kurzer Dauer einen relativ gut formulierten Text, in dem die erwarteten Details in der Regel ordentlich ausgeführt sind. Man hätte es nicht besser machen können, warum nicht immer auf den digitalen Helfer zurückgreifen, der mit seiner beeindruckenden Schnelligkeit Zeit erspart, aufwändige Recherchen überflüssig macht und in einem druckreifen Deutsch Resultate präsentiert? Was sollte uns also davon abhalten, generative künstliche Intelligenz als Entlastung für eigene Mühen einzusetzen, allzu verführerisch ist die Aussicht, mit minimalem Arbeitsaufwand Erfolge zu erzielen. Dass es sich bei der Herstellung der Texte durch ChatGPT lediglich um Kompilationen, also um die Zusammenstellung von Textausschnitten aus bereits bestehenden Texten handelt, interessiert dabei offensichtlich kaum jemand, auch auf ihre Herkunft wird scheinbar wenig Wert gelegt. So gibt etwa der Mathematiklehrer Tim Kantereit, der sich selbst als Pionier auf dem Gebiet des KI-gestützten Unterrichts bezeichnet, als Datenquellen an: „Internet, darunter Webseiten, Bücher, Artikel, Blog-Beiträge und soziale Medien-Einträge“ (Kantereit 2023, Min. 10.41). ChatGPT greift also bei seiner Suche auf Texte zurück, die durchaus z.T. als fragwürdig zu bezeichnen sind, da es sich um ein Konglomerat von persönlichen Meinungen, wissenschaftlichen Ausführungen oder ideologischen Stellungnahmen handelt, die für Manipulationen offen sind. Abgesehen von den damit aufgeworfenen urheberrechtlichen Fragen, entziehen sich die in ChatGPT verarbeiteten Datenquellen jeglicher Kontrolle. Das macht es für die Nutzer*innen schwer bis unmöglich zu wissen, woher die Informationen stammen und wer für den Wahrheitsgehalt garantiert, denn es existiert keine Autorin und kein Autor, die im Zweifelsfall Auskunft geben könnten. Das eigentliche Problem mit Sprachprogrammen ist also, dass sich zwar auf wundersame Weise Trägheit in ihr Gegenteil verkehrt, denn zumindest oberflächlich liefern sie ohne große Umstände perfekt komponierte Ergebnisse. Ob allerdings ihre Inhalte immer korrekt sind, bedürfte wiederum der selbstständigen Recherche. Das kommt besonders dann zum Tragen, wenn es sich um komplexe Anfragen handelt, deren Beantwortung man freilich vertrauensvoll an die Maschine delegiert hat.
Die neueste Version GPT-4 wird massiv beworben, so dass davon auszugehen ist, dass sich immer mehr Menschen an das Programm anschließen werden. Reduziert auf den nur passiven Konsum von vorgefertigten Texten freilich verliert der Mensch, so ist zu befürchten, seine eigenständige Denkfähigkeit. Wenn Anfragen an Sprachmodelle zur alltäglichen Routine werden und neue Texte aus alten Texten zwar in unterschiedlichen Varianten, aber dennoch aus einem vorgegebenen Korpus kompiliert werden, dann führt das schließlich zu einem endlosen Strom von Redundanzen und Wiederholungen, die aufgrund ihrer unterschiedlichen Darstellungsformen noch nicht einmal als solche erkennbar sind.
Schon jetzt, gerade mal nach rund einundeinem halben Jahr nach der offiziellen Freigabe des ChatGPT für die Öffentlichkeit, zeigt sich die Fangemeinde außerordentlich beeindruckt vom Können der Maschine. Das Nordrhein-Westfälische Bildungsministerium unter der Leitung von Dorothee Feller etwa empfiehlt die Anwendung von textgenerierenden Chatbots in der Schule (MSB 2023). Zwar wird auch auf Gefahren hingewiesen, im Grunde aber ihre Verwendung befürwortet und als ebenso vorteilhaft wie bereichernd für den Bildungsprozess angepriesen.
Unter diesen Voraussetzungen ergeben sich allerdings einige Probleme, die aus der Warte einer kritischen Pädagogik darzustellen sich lohnt. In den folgenden Ausführungen wird daher, wenn auch nur in Ansätzen, anthropologischen und bildungstheoretischen Fragen nachgegangen, dies insbesondere deshalb, weil ChatGPT in einer unglaublichen Geschwindigkeit an Attraktivität bei Schüler*innen und Student*innen gewinnt und seine Verwendung selbst in den Kultusministerien der Länder begrüßt wird. Solche Umstände machen es dringend erforderlich, eine pädagogische Perspektive zu entwickeln, die u.a. auch die Kybernetik in ihren Reflexionshorizont aufnimmt, da sich auf diese Weise der von ChatGPT ausgehende Konformitätsdruck eindrucksvoll nachvollziehen lässt. Denn die vorgespurten Wege einer durch künstliche Intelligenz erzeugten Wahrnehmung bringt einen Konformismus hervor, der sich in einer Endlosschleife beständig erneuert. Die im Stile industrieller Produktion seriell hergestellten, modularisierten Textbausteine sind fast food für den Geist, der – wie der Körper durch die Eingabe chemisch aufgepeppter Lebensmittel erschlafft – an Kraft verliert. Nicht mehr der Mensch, sondern die Maschine übernimmt auf absehbare Zeit die Regie. Wir digitalisieren uns zu Tode könnte man in Abänderung eines Bonmots von Neil Postman die derzeitige Sucht nach immer mehr Angeboten aus dem Reich der Digitalisierung bezeichnen.
Die Kybernetisierung des Lebens beruht auf der einfachen Formel: Information, Kontrolle, Korrektur. Daraus gibt es kein Entrinnen, weil all das, was als Abweichung hervorsticht, der vorgegebenen Norm angepasst werden muss, damit sich der Regelkreis im permanenten Gleichgewicht befindet. (Anm.: Die Wissenschaft der Kybernetik begann mit dem Aufkommen der ersten modernen Computer während des zweiten Weltkrieges. Ein kybernetisches System beruht auf einem Gleichgewicht (Homöostase), das permanent durch Abgleich von Informationen (Kontrolle) immer wieder in den Ausgangszustand (Korrektur) gebracht wird. (vgl. dazu Borst 2013, S. 404-406). Auf diese Weise unterwirft die Kybernetik die Menschen einem Regime der Vereinheitlichung und nimmt ihnen jegliche Souveränität.
Besonders bemerkenswert in diesem Zusammenhang wird die Aussage eines ungenannten „Informatikers dieser Tage“ in einer Werbemail der Verlegerin Barbara Budrich zur künstlichen Intelligenz, in der sie ChatGPT begeistert aufnimmt und zugleich besagten Informatiker folgendermaßen zitiert: „ChatGPT wird Menschen nicht verdrängen. Aber Menschen, die ChatGPT nutzen, werden jene verdrängen, die es nicht nutzen.“ (Budrich 2023). Hier ist er wieder, der circulus vitiosus, die Endlosschleife, der Zirkelschluss oder kybernetisch formuliert: der Regelkreis, an den alle Menschen im Sinne einer Menschmaschine angeschlossen werden sollen. Nicht zu übersehen ist dabei das für kapitalistische Verhältnisse notwendige Konkurrenzdenken, denn wer sich außerhalb des Regelkreises stellt, fällt nicht nur auf, sondern gehört entweder zu den Verlierer*innen oder zu den Kritiker*innen dieser Technologie. Unmissverständlich lassen sich solche Sätze als Aufruf zur Denunziation des menschlichen, nicht durch Maschinen gestützten Denkens lesen. Auf subtile Art und Weise ist es ein Rezept zur Austreibung des kritischen Geistes, der nur gedeihen kann, wo er nicht durch die Maschine kanalisiert sich ausbreitet und selbstständig zeigt im Durchdenken von Zusammenhängen, die sich nicht auf den ersten Blick erschließen. Kritisches Denken ereignet sich außerhalb der vorgegebenen Ordnung, allenfalls bricht es in die Ordnung ein und sucht durch Argument und Widerrede zu überzeugen. Heute freilich gilt in weiten Teilen, dass Kritik allgefällig sein müsse, nicht zu sehr an den substanziellen gesellschaftlichen Zuständen kratzen darf, das heißt, ohne auf die der Gesellschaft zugrundeliegenden neofeudalistisch-kapitalistischen Verhältnisse einzugehen. Diese „antikritische oder affirmative Kritik“ (Hopfner 2016, S. 214) ist in formal demokratischen Gesellschaften erlaubt, wie Johanna Hopfner bemerkt. Sie wirkt allerdings höchst selektiv und stellt die herrschenden Bedingungen keinesfalls in Frage.
Was Theodor Adorno noch als sozialisierte Halbbildung im Zeichen einer spätkapitalistischen Kulturindustrie beschreibt, erfährt heute angesichts eines digitalen Monopolkapitalismus, der sich anschickt, den menschlichen Körper als noch unausgeschöpfte Quelle industrieller Produktion zu entdecken, seine Potenzierung. Stellte Adorno in seinem Text „Theorie der Halbbildung“ von 1959 das Auseinanderfallen von Kultur und Humanismus mit der folgenschweren Konsequenz einer Barbarisierung der Gesellschaft fest, so kann man heute getrost von einer weit fortgeschrittenen, beispiellosen Verrohung (vgl. Borst 2010) innerhalb der gesellschaftlichen Verhältnisse bis hinein in die persönlichen Beziehungen ausgehen, die eng verknüpft ist mit einem Gehorsam gegenüber den kybernetischen Angriffen auf die Selbstbestimmung und Selbstständigkeit des Menschen. Übertragen auf eine Gesellschaft, die sich blind und in atemberaubender Geschwindigkeit der Maschine ausliefert und dies auch noch wie ein Hochamt in der Kirche feiert, ohne auch nur einmal über Technologiefolgenabschätzung öffentlich zu diskutieren, eine solche Gesellschaft stolpert mit Riesenmeilenstiefeln in das unaufgeklärte Zeitalter zurück, das sie schon überwunden glaubte. Denn ChatGPT verkörpert beispielhaft jene autoritäre Autorität, vor der Kant 1783 gewarnt hatte:
„Aufklärung ist der Ausgang des Menschen aus seiner selbstverschuldeten Unmündigkeit. Unmündigkeit ist das Unvermögen, sich seines Verstandes ohne Leitung eines anderen zu bedienen. […] Faulheit und Feigheit sind die Ursachen, warum ein so großer Teil der Menschen, nachdem sie die Natur längst von fremder Leitung freigesprochen […], dennoch gerne zeitlebens unmündig bleiben. […] Ich habe nicht nötig zu denken, wenn ich nur bezahlen kann; andere werden das verdrießliche Geschäft schon für mich übernehmen.“ (Kant 1998, S. 53; Hervorh. E.B.)
Das verdrießliche Geschäft, delegiert an den Chatbot, bezahlt mit der Bereitstellung zahlloser persönlicher Informationen und Daten, mündet in die Formierung des Menschen zum unkritischen Konsumenten vorgedachter Gedanken, deren Zustandekommen sich seiner Kontrolle entzieht.
Anthropologische Voraussetzungen für eine kritische Bildung
Eines der charakteristischsten Merkmale von Herrschaft ist die Kunst, den Beherrschten weis zu machen, alles, was politisch geschieht, geschehe zu ihrem Nutzen und sie seien daher aufgefordert, in ihrem eigenen Interesse mitzutun. Die Digitalisierung erledigt dieses Geschäft aufs Beste, denn sie repräsentiert ein kybernetisches Kontrollsystem mit der außerordentlichen Fähigkeit, bis in die feinsten Kapillaren des privaten Lebens vorzudringen, ohne die ihr innewohnenden Mechanismen zu offenbaren. Der Gehorsam durch Anpassung wird so auf eine undurchschaubare Weise eingefordert und der Unterschied zwischen Herrschaft und Knechtschaft verschleiert.
Armin Bernhard (2021) spricht im Sinne der Tiefenpsychologie von einer inneren Knechtschaft, der deshalb so schwer beizukommen sei, weil sie im Prozess der Sozialisation tief in die Psyche eingelassen von „inneren Besatzungsmächten“ gelenkt wird, sie also unterschwellig wirkt und sich weitgehend dem Bewusstsein entzieht. Auch wenn es für den Menschen eine narzisstische Kränkung ist festzustellen, dass er zu einem gewissen Grad abhängig ist von während der Sozialisation erworbenen, tief in der Psyche sedimentierten Strukturen, so ist er doch in der Lage, sich von sich selbst soweit zu distanzieren, um diesen Strukturen auf die Spur zu kommen. Obwohl seit Sigmund Freud das Unbewusste für das Verhalten der Menschen an Bedeutung gewonnen hat, verfügen sie gleichwohl über soviel rationales Vermögen, dass sie ihm nicht restlos ausgeliefert sind. Schon die Tatsache, dass sich Freud des Unbewussten annimmt und aus seiner klinischen Erfahrung heraus die Theorie der Psychoanalyse entfaltet, zeugt von der menschlichen Fähigkeit, einen reflexiven Abstand zu sich selbst zu gewinnen. Helmuth Plessner bezeichnet diesen Zustand in seinen anthropologischen Studien als „exzentrische Position“ (Plessner 1981). Der Mensch, häufig geleitet von unbewussten Prozessen, kann sich denkend in eine kritische Distanz zu ihnen begeben, sie durchschauen und so zu mehr Selbstständigkeit gelangen.
Von der Natur zwar mit Vernunft begabt, kann der Mensch sein Potenzial freilich nur dann entfalten, wenn sich Vernunft im Denken realisiert. Eine der Aufgaben von Schulen und Hochschulen ist es daher, Kinder, Jugendliche und junge Erwachsene im selbstständigen Denken zu unterrichten und Hilfestellung bei der Herausbildung einer kritischen Urteilskraft zu leisten. „Es kommt“, schreibt Kant, „vorzüglich darauf an, daß Kinder denken lernen“ (Kant 1998, S. 707). Daran sollte sich bis heute nichts geändert haben. Betrachten wir aber die ausufernde Digitalisierung, so ist zu konstatieren, dass Kinder zunehmend in eine Situation gebracht werden, die ihre Denkleistung vermindert, da erstens die Maschine in vielerlei Hinsicht das Denken abnimmt, zweitens das Gedächtnis durch die Übertragung auf die Maschine nicht mehr geübt wird und drittens, weil in der digitalen Welt keinerlei Rücksicht auf die kindlichen Entwicklungsphasen genommen wird.
Ferner weist Johanna Hopfner im Anschluss an Lev Semenovic Vygotskij darauf hin, dass der Ursprung des kindlichen Denkens im Sozialen liegt und nicht etwa, wie Piaget behauptet, dem kindlichen Egozentrismus entspringt. Kein Mensch könne „aus eigener Kraft schlicht aus seinem intellektuellen, emotionalen, visuellen, kreativen Denkvermögen schöpfen.“ Die „gedanklichen Welten eröffnen sich ihm nur durch andere […]“ (Hopfner 2017, S. 190). Kinder aber, die isoliert dem persönlichen Computer Gedanken zu entlocken versuchen und keine Gelegenheit zur Auseinandersetzung mit anderen haben; Kinder, denen eine angemessene Hilfestellung fehlt, um sich eigene wie auch andere Denkungsweisen zu erschließen, werden zweifellos zu Gefangenen ihrer selbst.
Darüber hinaus gilt: Eine auf Selbstoptimierung, Effizienz und Beschleunigung versessene Gesellschaft, die die Entfaltungsmöglichkeiten von Kindern und Jugendlichen auf dem Altar der Digitalisierung opfert, indem sie sie beizeiten schon abhängig von allerlei Gerät macht, stört nicht nur den von der Natur vorbestimmten ontogenetischen Werdegang, sondern verwechselt ganz grundsätzlich das Menschliche mit dem Maschinellen. Die darin liegende Aufforderung, sich der Maschine zu unterwerfen, ist daher der erste Schritt zu einem Transhumanismus (Loh 2018), der nichts mehr will als die Verschmelzung von Mensch und Maschine.
Denken und Begriffsbildung gehen aus der sensomotorischen Phase des Kleinkindes hervor. Erst durch die differenzierte Ausbildung der Sinne vermag der Mensch die Welt in ihrer Umfänglichkeit zu erfassen und lernt, sich mit ihr auseinanderzusetzen. Die Entwicklung des menschlichen Geistes ist also ganz wesentlich mit der körperlichen Entwicklung verbunden. Dabei spielt der Tastsinn eine außerordentlich wichtige Rolle, denn nur er sorgt dafür, dass Kinder sich selbst und die Welt in drei Dimensionen wahrnehmen. Die Digitalisierung aber zwingt uns, unsere Wahrnehmung auf zwei Dimensionen einzuschränken und appelliert an nur zwei von fünf Sinnen.
Gehirnwachstum, Körperwachstum sowie die Ausprägung der Sinne stehen in einem wechselseitigen Abhängigkeitsverhältnis (vgl. Grunwald 2017, S. 92f.). Bis das Kind abstrakte Begriffe versteht (etwa ab dem 12. Lebensjahr) und in seinen Kommunikationshorizont integriert, muss es einen höchst komplizierten Prozess durchlaufen, dessen Fortgang nicht künstlich beschleunigt werden kann. Auch lässt sich die Reihenfolge der Entwicklungsschritte nicht artifiziell verändern. Das bedeutet, was auch schon Jean-Jacques Rousseau wusste, dass eine Erziehung, die mit Verständnis und Zuwendung das Kind in seiner Entwicklung begleitet, daran gebunden bleibt, Zeit zu verlieren: „Darf ich nun die wichtigste und nützlichste Regel jeder Erziehung aufstellen?“, so Rousseau, „Sie heißt nicht, Zeit gewinnen, sondern Zeit verlieren“ (Rousseau 1993, S. 72). Während die menschliche Entwicklung also auf Retardation beruht, will die Digitalisierung das Gegenteil: eine optimal effiziente Beschleunigung.
So fürchtet etwa auch der Philosoph Paul Virilio, die destruktive Kraft der Beschleunigung könne die sinnliche und kognitive Wahrnehmung der Menschen auf eine äußerst effektive Weise verändern und die „Liquidation der Menschheit“ (Virilio 1996, S. 51) vorantreiben. „Wir werden“, so seine unbequeme These, „von den Rhythmen der Technik ununterbrochen zusammengesetzt und wieder zersetzt. Der Geschwindigkeitsexzess ist eine Fahrschule, die uns auf den Reflex, auf die Reaktion hin trimmt“ (ebd., 45). Er beschreibt hier das Individuum in seiner reduziertesten Form: Als ein im Grunde ebenso dehumanisiertes wie indifferentes Wesen, das in seiner Unmittelbarkeit nur noch auf die jeweilige Begebenheit reagiert, sie aber lange schon nicht mehr gestaltet.
Kinder indes sind körperlich und kognitiv darauf angewiesen, den Zeitraum selbst bestimmen zu können, den sie benötigen, um ihre Umwelt in all ihrer Differenziertheit erkunden und sie sich zueignen zu können. Dies entspricht einem sehr frühen Bildungsprozess, der immer auch begleitet sein muss von einer Erziehung, die Kinder vor den überzogenen gesellschaftlichen Ansprüchen nach immer mehr in immer kürzerer Zeit schützt und Gelegenheiten zur kreativen Auseinandersetzung mit der Welt bereitstellt. Dies ist die ebenso unverzichtbare wie grundlegende Weise, wie Selbstwirksamkeit und Selbstermächtigung erlebbar werden, die im günstigsten Fall später zu Selbstständigkeit und Selbstbestimmung führen.
Dabei kann das Erziehungsverhältnis nicht auf ein bloßes Beziehungsverhältnis reduziert werden, sondern es konstituiert sich in einer Gesellschaft mit der ihr eigenen kulturellen Sozialstruktur, die den eigentlichen Grund für Erziehung abgibt. Wolfgang Sünkel spricht in diesem Zusammenhang vom „dritten Faktor der Erziehung“. Den dritten Faktor repräsentieren die „nichtgenetischen Tätigkeitsdispositionen“ (Sünkel 2011, S. 43), die vermittelt und angeeignet werden müssen. Dieses Verhältnis ist nicht zu hintergehen und zeigt sich insbesondere dort, wo es um die Vermittlung und Aneignung von grundlegendem Wissen als wesentliches Kriterium für den Fortbestand einer Gesellschaft geht. Nicht nur aber handelt es sich dabei um Erziehung, sondern ebenso um Bildung, die freilich je nach Alter der Heranwachsenden in ihrer Ausprägung variiert. Denn so sehr sich Erziehung zunächst weitestgehend orientiert an tradiertem Wissen, so sehr ist dies das Fundament für weitergehenden Wissenserwerb im Sinne einer kritischen Bildung. Braucht Erziehung noch die Vermittlung, so ist Bildung eine selbstständige Tätigkeit, die sich in großen Teilen der Neugierde des Menschen verdankt und ihren Zweck in sich selbst findet.
Pädagogische Intervention bedeutet in diesem speziellen Kontext, Kindern und Jugendlichen zu mehr Selbstständigkeit bei der Erforschung ihrer Umwelt zu verhelfen, so dass sie Sachverhalte in ihren immanenten Zusammenhängen und im Rahmen eines historisch-gesellschaftlichen Bewusstseins verstehen. Die Bedingung der Möglichkeit dazu ist aber in Zeiten der Digitalisierung denkbar schlecht. Der „Digitalisierungswahn“ (Zierer 2023) führt, wie Klaus Zierer von der Universität Augsburg kürzlich ausführte, zu Entwicklungsstörungen und Bildungsdefiziten. Zu dem gleichen Ergebnis kommt schon 2019 die Neurologin und Hirnforscherin Gertraud Teuchert-Noodt (vgl. Teuchert-Noodt 2019).
ChatGPT und Bildung
Auffallend oft wird der Begriff der Bildung völlig inhaltslos und unreflektiert auf Prozesse projiziert, die so gar nichts mit Bildung zu tun haben. Besagter KI-Pionier Tim Kantereit wirbt beispielsweise in seinem kleinen Video mit dem Begriff um Aufmerksamkeit, um ChatGPT als wesentlichen Faktor für die Zukunft der Bildung anzupreisen. Keine Rolle spielt offenbar die Frage, was Bildung ist und wozu sie befähigen soll. Die beliebige und verbreitete Verwendung des Begriffs verschleiert vor allem die emanzipative Komponente von Bildung. Diese kommt jedoch nur dann zum Vorschein, wenn selbstständiges Denken und kritische Urteilskraft eine revolutionierende Allianz eingehen. Beides beruht auf einem Grad an differenziertem Wissen, das bestehende Probleme erfassen, überblicken und zumindest ansatzweise lösen lässt. Die Gleichsetzung von Bildung mit Wissenserwerb verbietet sich indes, weil Bildung immer in einen Prozess der Persönlichkeitsbildung eingebettet ist, der sich nicht im Wissen erschöpft. So ist zwar Wissen ein wesentlicher Faktor von Bildung, aber Bildung ist nicht identisch mit Wissen. Bemerkenswert nun ist die Tatsache, dass die neuen Sprachprogramme der autonomen Selbstaufklärung einen Riegel vorschieben, weil sie als Gatekeeper fungieren, die nur vorab ausgewähltes Wissen aus beliebigen Quellen zulassen. Auf diese Weise machen sie die Nutzer:innen regelrecht zu Unwissenden, die die Herkunft des Wissens nicht mehr aus eigener Leseerfahrung kennen und es daher nicht mehr angemessen einordnen können. Da differenzierte Ausführungen und Kontexte fehlen, werden wir blind für die Deutungen historisch-gesellschaftlicher Zusammenhänge, die u.a. auf Widersprüche aufmerksam machen, die, gegeneinander abgewogen, erst ein Urteil möglich machen.
Repräsentierten seit Jahrhunderten Bücher und Bibliotheken das kulturelle Gedächtnis und waren verlässliche Begleiter bei der Herausbildung eines eigenen Denkens, so ist dessen Delegation an durch Algorithmen gesteuerte Sprachprogramme nur noch ein Abgesang auf das einstmals versierte Textverstehen in unterschiedlichen Zusammenhängen. Auf undurchschaubare Algorithmen reduziert, geht mit der Etablierung von ChatGPT in Schulen und Hochschulen allmählich die Kulturtechnik des hermeneutischen Textverstehens zugrunde. Simplifizierung und Vereinheitlichung tritt an seine Stelle, zumal es für Schüler*innen äußerst bequem ist, ohne lästige eigene Recherche fertige Texte zu präsentieren. Das Sprachprogramm ChatGPT weiß übrigens nicht, dass es etwas nicht weiß. Es liefert immer Ergebnisse, auch wenn diese falsch sind.
Wenn Technik Kultur ablöst, endet dies in Barbarei. Die unbesonnene Rede von ChatGPT als Meister der kreativen Beantwortung von Fragen allerlei Couleur endet spätestens dort, wo sich die künstliche Intelligenz anmaßt zu beurteilen, was gesagt werden darf und was nicht. Sie erschafft neue Realitäten fernab von Humanität und Mitmenschlichkeit und verspielt so das Erbe des Neuhumanismus, das sich in der Allgemeinen Erklärung der Menschenrechte verwirklicht. Bei Lichte betrachtet verlieren allerdings die Menschenrechte in dem Moment an Kraft, in dem die Digitalisierung zur Unterwerfung unter ein Regime zwingt, das die Souveränität des Individuums in Frage stellt. Shoshana Zuboff zeigt in ihrem Buch „Das Zeitalter des Überwachungskapitalismus“ (2018) en détail, dass die Werbung der Tech-Konzerne für die ungeahnten Fähigkeiten des Internets mit seiner beschleunigten Wissensproduktion lediglich eine Falle ist: „[V]on einer konstruktiven Reziprozität zwischen Produzent und Konsument kann […] keine Rede mehr sein. Vielmehr sind sie [die Dienstleistungen, E.B.] ‚Köder‘, die die Nutzer in […] ausbeuterische[.] Operationen locken, in denen man ihre persönliche Erfahrungswelt ausschlachtet und als Mittel zu anderer Leute Ziele verpackt und verkauft.“ (Zuboff 2018, S. 25) Nicht nur, dass das Wissen über die Prozesse, die sich hinter der Mattscheibe abspielen, in der Hand der großen Tech-Konzerne liegt, sondern auch das zur Verwertung bereitgestellte und der Öffentlichkeit zugängliche Wissen ist im Besitz einiger weniger, die darüber entscheiden, welche Texte in den Korpus aufgenommen werden.
Die Währung für die Nutzung von ChatGPT sind unsere Daten, von denen niemand weiß, was mit ihnen geschieht. Das Recht auf informationelle Selbstbestimmung wird in dem Maße ausgehöhlt wie die Macht der Konzerne wächst und eine monopolistische Herrschaftselite entsteht, die aufgrund der gesammelten Datensätze ihren transhumanistischen bzw. posthumanistischen Ideen immer näherkommt. Die Fetischisierung der Technik, die sowohl Günther Anders als auch Theodor Adorno und Max Horkheimer in ihren auch heute noch aktuellen Texten ausgeleuchtet haben, führt unabwendbar zu einer Dehumanisierung der Gesellschaft. Die Enteignung der menschlichen Fähigkeit zu eigenständigem Denken, die Vernichtung von Empathie und die Zerstörung des für das menschliche Überleben notwendige soziale Miteinander sind die ersten Schritte zu einer Herrschaft der Technik über den Menschen. Auch ChatGPT gehört in diese Kategorie, denn es verhindert eine auf Erfahrung, Wissen und (Selbst-)Erkenntnis beruhende Bildung, die in den Stand versetzt, gesellschaftskritische Einwände zu formulieren und die Widerstandskräfte gegen die übergriffige Einflussnahme auf das eigene Leben im Allgemeinen zu stärken. ChatGPT verhindert im Besonderen, Kybernetik und Digitalisierung als Ausdruck der Macht einer Herrschaftskaste zu identifizieren und den Gehorsam zu verweigern. Das umfasst auch das Recht auf ein off-line Leben. Oder wie Günther Anders es einst formulierte: dass es Menschen gebe, „die noch an der Maschine ‚vorbei-existieren‘; illoyale Außenseiter-Energien oder Leistungen, die es noch fertigbringen, sich dem dirigistischen Zugriff zu entziehen; vacua, denen es weiter gelingt, der Ausfüllung Widerstand zu leisten.“ (Anders 2002, S. 113)
Im übertragenen Sinne ist es nämlich der Horror Vacui, die Angst vor der Leer(stell)e, die diejenigen befällt, die glauben, die Welt umfassend in ihrer Totalität kontrollieren zu können.