Veröffentlicht am 13.06.24

KI im Unterricht: Neues vom Digitalisierungswahn

Von Stephan Schimmelpfennig

Vorbemerkung

Digitale Medien sind Informationsträger, die mit digitalen Techniken, u.a. algorithmisch oder mit „generativer Intelligenz“ arbeiten. Sie bieten technische Lösungen für verschiedene Fragestellungen an. Wie sie das tun ist für Laien in der Regel nicht nachvollziehbar, oftmals werden die Ergebnisse für objektiv, mitunter gar für wahr(haftig) gehalten. Das Medium selbst sagt nichts über die Qualität des Inhalts aus. Es obliegt dem Rezipienten, die ggf. künstlich erzeugten digitalen Artefakte und Ergebnisse zu identifizieren, zu erkennen, einzuordnen, zu bewerten bzw. zu verwerfen.

Das Problem besteht u.a. darin, dass Bilder nicht mehr auf ihren Wahrheitsgehalt überprüft werden können, weil der Rezipient, also der Mensch hinter dem Bildschirm nicht entscheiden kann, ob es sich um einen wirklichen, dokumentarischen Ausschnitt der Realität, etwa als Foto oder Filmausschnitt, oder eben um inszenierte oder gar künstlich erzeugte „Wirklichkeit“ handelt. Dieses Problem existierte schon beim Kino oder TV, wo der Zuschauer nicht unterscheiden kann, ob es sich um einen Spiel- oder Dokumentarfilm handelt. Im übertragenen Sinn gilt dies auch für Texte, bei denen der Rezipient den Wahrheitsgehalt mit wissenschaftlichen Methoden überprüfen müsste bzw. im Alltag mittels Erfahrungswissen überprüft und ggf. für plausibel hält oder die Information glaubt bzw. für wahr hält, weil sie aus sicherer Quelle stammt. Sichere Quellen sind im hiesigen Diskurs derzeit die öffentlich-rechtlichen und die sogenannten Mainstream-Medien.

Was in der Regel nicht bemerkt wird, ist die Tatsache, dass große US Digitalkonzerne der geneigten Zuschauerschaft permanent selektierte Nachrichten zukommen lassen, die aus den oftmals illegal generierten Persönlichkeitsprofilen zusammengestellt werden und vorhandene Einstellungen stärkt. In den sogenannten sozialen Netzwerken führt dies zur sogenannten „Blasenbildung“, wo sich ggf. (Vor)-Urteile permanent bestätigen und verstärken. Der „normale“ Rezipient bzw. Leser kann aufgrund mangelnder Fachkenntnisse und eingeschränkter Quellenauswahl selten unterscheiden, was in der Fachwissenschaft gilt und was nicht, ungeachtet unterschiedlicher Wissenschaftsauffassungen.

Digitale Verheißungen

Nach dieser Vorbemerkung können wir nun die Verheißungen der digitalen Medien genauer betrachten. Jörg Schieb, u.a. WDR Experte für Digitales, schreibt in seinem Newsletter vom 27.03.2024:„KI-Chatbots sind wie gute Kollegen, denen ich sage: Hey, kannst Du bitte mal was für mich recherchieren? Kannst Du bitte mal herausfinden, ob … Kannst Du für mich mal dieses Thema gliedern? KI-Chatbots können so was. Und ich sage ganz bewusst: Chatbots. Plural. Denn es gibt nicht nur ChatGPT. Es gibt heute so viele interessante Chatbots. Und ich nutze sie fast alle. … “

Ich sage hingegen: Die KI Chatbots sind wie sehr schlechte Kollegen, da ihre Aussagen eigentlich immer erst überprüft werden müssten.“ KI wird ja, was weniger bekannt ist, von Nutzern und Arbeitssklaven „gefüttert“ bzw. trainiert und von privaten Konzernen betrieben. KI wird auch illegal mit jedwedem und ungeprüftem Material gefüttert, ohne Richtiges von Falschem zu trennen. Dieses Training der „Intelligenz“ findet unter frühkapitalistischen, neokolonialen Bedingungen statt und schert sich nicht um geistige Eigentumsrechte. (Netzpolitik: Arbeiter in Kenia) Ähnliches berichtet die „Tagesschau“ am 29. April 2024 über eine Beschwerde von Datenschützern: „Das KI-Programm ChatGPT veröffentlicht Daten über Privatpersonen, deren Herkunft unklar sei. Das werfen Datenschützer dem Anbieter OpenAI vor. Zudem ließen sich falsche Angaben nicht korrigieren.“ (Tagesschau, 29.4.2024)

Falck: 5 Dimensionen
Joscha Falck: Fünf Dimensionen von KI im Unterricht

 

So ist nicht nachvollziehbar, warum maschinell erzeugte Informationen oder inhaltliche Gliederungen, das Generieren von Texten oder Fotos etc. die Fähigkeiten von Lernenden erhöhen oder sonst wie zu seiner Orientierung oder Erweiterung der Fähigkeiten beitragen. Ob es das Erstellen eines Referats oder das Entwerfen eines Plakats im Kunstunterricht ist, der Lernende soll lernen und ggf. unterstützt werden, aus umfangreichem Material einen Text zu strukturieren, Schwerpunkte zu setzen oder eben in einem bestimmten Stil ein Plakat per Hand oder mittels eines Grafikprogramms zu entwerfen. Er soll in höheren Klassenstufen selbst in Datenbanken recherchieren. Dabei wird bei ihm die Eingabe per Prompt keine Fähigkeiten der Gestaltung entwickeln, außer vielleicht Prompts maschinengerecht zu formulieren. Auch das Recherchieren in Datenbanken, die ja selektiv mit Informationen umgehen, will gelernt und reflektiert sein, wenn die Recherche nicht einseitig sein soll.

Auch im Alltagsleben hat maschinengestützte Kommunikation bei Behörden, Versicherungen, Beihilfestellen oder sonstigen privaten Dienstleistern bereits massiv Eingang gefunden. Dabei geht es nicht um Verbesserung von Dienstleistungen, sondern um die Einsparung „teurer“ menschlicher Arbeitskraft. „Der Geschäftsprozess beginnt mit der Kundenanfrage und reicht bis zur Ermittlung der Kundenzufriedenheit. Gemessen werden z. B. Bearbeitungsdauer, Gesprächsdauer, Wartezeit oder Antwortzeit. Auf dieser Basis werden die Prozesse kontinuierlich gemessen, standardisiert und die Mitarbeiter über Zeitvorgaben gesteuert.“ (Telepolis – People Analytics)

In diesem Zitat von Markus Schwarzbach wird erkennbar, wie menschliches Handeln standardisiert und formatiert wird. Die Form und damit die Möglichkeiten der „Akteure“ werden vom System, der Software, vorgegeben. Möglich ist, was der Standardprozess erlaubt. Der Begriff „Kundenzufriedenheit“ ist ein Euphemismus, bestenfalls für Standardrückfragen. Eine wirkliche demokratische Teilhabe an den Handlungen, gar eine Änderung der Abläufe etwa im Interesse von Patienten, die keine Kunden sind sondern Bedürftige, ist im System nicht vorgesehen.

Momentan werden KIs so lange im Labor trainiert, bis man denkt, sie sind gut genug. Und dann werden sie in die Umwelt entlassen“, erklärt Katharina Zweig, KI-Experten der TU Kaiserslautern-Landau: „Einem Computer kann man keine Freiräume lassen, er braucht für jede Situation eine Handlungsanweisung. Das ist beim Menschen anders.“ (Telepolis: Amazon und Klarna)

KI in der Schulverwaltung?

 

Google und Amazon Suchen werden u.a. generiert, um Werbung an die Frau oder den Mann zu bringen, nicht um Suchende mit „neutralen“ Informationen zu versorgen. Das entscheiden Algorithmen, die im Auftrag der Besitzer, Gates, Bezos und Co., programmiert wurden und zwar in deren Interessen, der Vermehrung ihres Kapitals und ihrer Macht. Mittels maschineller Auswertung der eigentlich privaten Kommunikation können META, tiktok und Co schon jetzt Stimmungen und Denkweisen der Benutzer erfassen und ggf. steuern, z.B. durch Auswahl der Nachrichten, Abschalten von unerwünschter Information, Nudging oder anderer Manipulationstechniken.

Obwohl solche Techniken bekannt sind, wird im GEW Rundbrief: „GEW-Bildungstag zur Buchmesse: Künstliche Intelligenz“ erklärt, man könne KI als Assistenz der Schulverwaltung sinnvoll nutzen. Die Autorin des Beitrags, Julian Dorn, „stellte verschiedene Anwendungsmöglichkeiten vor und gab eine Schritt-für-Schritt-Einleitung. Wer Systeme wie ChatGPT nutzen wolle, müsse vorab drei Aspekte für sich klären:

Aus meiner Sicht verbietet sich nach diesen Kriterien jede (!) Nutzung von KI im Unterricht, da Lehrern die Expertise fehlt, die Datensicherheit zu überprüfen und die IT Abteilungen der Schulträger dazu ebenfalls weder willens noch in der Lage sind. Aus meiner Sicht garantiert die Benutzung der Chatbots von MS, Google und Co. den Datenabfluss, auch wenn man sich bei ChatGPT in der gratis Version nicht mehr anmelden muss und macht die US Digitalkonzerne noch stärker und einflussreicher. Inwieweit diese Konzerne ihre „Gestaltungsmacht“ schon jetzt manipulativ einsetzen, kann hier nicht weiter vertieft werden.

Armin Grunwald, Professor für Technikphilosophie und Technikethik am Karlsruher Institut für Technologie (KIT) und Leiter des Büros für Technikfolgen-Abschätzung des Deutschen Bundestags, sprach schon 2019 von der „Gretchenfrage“, die zu stellen sei, und fordert zur reflektierten Gegenwehr gegen Machtbestrebungen auf:

„Wir müssen ernsthaft die Frage stellen: Wer sind die Macher der KI, wer verbreitet die Erzählungen und wer will hier eigentlich seine Werte und Interessen hinter einem vermeintlichen Technikdeterminismus verstecken? Denn auch in der Welt mit KI dient Technikdeterminismus einer Ideologie der Mächtigen. Er verschleiert, dass jede KI gemacht wird, von Menschen in Unternehmen und Geheimdiensten, nach deren Interessen, Werten und Weltanschauungen.“ (Grunwald 2019, zit. n. Lankau/Condorcet)

Und um nicht missverstanden zu werden: Es gibt sinnvolle digitale Werkzeuge und Programme, sofern sie vom Benutzer souverän und datensicher angewendet werden können. Beim derzeitigen Stand der faktischen Herrschaft der US- und/ oder chinesischen Medienkonzerne sieht es damit schlecht aus. Es gibt alternative Software zum Teil auf hohem Niveau, Gimp und Scribus etwa, Big Blue Button kann mit Zoom etc. jedoch nicht konkurrieren. Wer sich mit den Befürwortern der künstlich generierten „Intelligenz“ anlegt, muss mit entschiedenem, milliardenschwer gesponsertem Gegenwind rechnen. Das ändert aber nichts an der Richtigkeit oder Falschheit der Argumentation.

Gastbeitrag von Stephan Schimmelpfennig, zuerst erschienen in: HLZ 6/21 S.18/19