Gastbeitrag

KI ist nie perfekt

Damit Kinder die gesellschaftlichen Auswirkungen von Künstlicher Intelligenz einschätzen können, sollte sie Thema in der Schule sein. Nicht nur im Informatikunterricht. von Ute Schmid

18.01.2021 Bundesweit Artikel didacta – Das Magazin für lebenslanges Lernen
  • © www.pixabay.com

Künstliche Intelligenz, kurz KI, ist derzeit ein viel diskutiertes Thema, das Faszination ausübt, aber auch Ängste auslöst. Um sich eine Meinung über Chancen und Risiken von KI bilden zu können, ist ein Einblick in die Methoden, mit denen KI-Systeme entwickelt werden, notwendig.

Zunächst ist wichtig zu verstehen, dass nicht jedes Computerprogramm ein KI-Programm ist. Die meisten Lern-Apps und E-Learning-Angebote nutzen bislang keine künstliche Intelligenz. Eine Lern-App, die starr mit einer Musterlösung abgleicht, ob die gegebenen Antworten korrekt sind, ist keine KI. Sagt sie aus den gegebenen Antworten voraus, bei welchen Arten von Aufgaben der Schüler oder die Schülerin am ehesten Probleme haben wird, nutzt die App KI-Methoden.

Ute Schmid ist Professorin für Kognitive Systeme an der Universität Bamberg. Seit mehr als 15 Jahren lehrt und forscht sie zu Künstlicher Intelligenz

KI wird oft mit maschinellem Lernen gleichgesetzt. Lernen heißt in diesem Fall, aus Beispielen auf eine allgemeine Regel zu schließen. Es ist unmöglich, dass die gelernte Regel immer fehlerfrei ist. So machen auch komplexe künstliche neuronale Netze, die in der Praxis eingesetzt werden, Fehler. Nehmen wir an, ein neuronales Netz, das einem selbstfahrenden Auto helfen soll, Fußgänger zu erkennen, wurde sorgfältig trainiert und getestet. Man kann abschätzen, dass das Netz zu 98 Prozent korrekt entscheiden wird. Das klingt nach sehr viel, heißt aber, dass von hundert Fußgängern zwei übersehen werden oder auch, dass zweimal gebremst wurde, obwohl es gar kein Fußgänger war.

Die methodischen Grundlagen und die Programmierung von KI-Ansätzen können gut in den Informatikunterricht der gymnasialen Oberstufe integriert werden.

Künstliche Intelligenz verstehen

Alle Schüler und Schülerinnen sollten in der Lage sein, zu beurteilen, was KI kann und was nicht: Sprachassistenten wie Alexa und Siri können nicht wie Menschen verstehen, wenn man etwas sagt. Stattdessen wandeln sie Schallwellen (das Gesagte) in eine Zeichenkette (Buchstaben) um und gleichen diese mit anderen Zeichenketten ab. Man spricht von Mustererkennung. Bei manchen Äußerungen wie „Bestelle das Produkt“ sind damit Aktionen verbunden, die das System ausführt. Wenn man das System beschimpft und es anscheinend beleidigt reagiert, ist das eine fest vorgegebene Reaktion. KI-Systeme wirken auf eine menschenähnliche Art intelligent, sind es aber nicht. Was – zumindest bislang – fehlt, sind ein eigener Wille, Absichten und Bewusstsein.

In der KI-Forschung wird daran gearbeitet, dass KI immer mehr Dinge so gut oder sogar besser kann, als Menschen. Das bedeutet: Ein Mensch, der Dreisatz rechnen kann, versteht auch einen Witz oder kann lernen, wie man gut Schafkopf spielt. Ein KI-System kann nur eine ganz bestimmte Sache gut. Man bräuchte demnach jeweils ein eigenes KI-System für Dreisatz, eines für Witze, eines zum Schafkopfspielen.

Monster und Roboter

KI sollte als Thema in verschiedenen Fächern aufgegriffen werden. In Religion oder Ethik lässt sich die Frage diskutieren, ab wann und ob überhaupt Menschen einer Maschine ein eigenes Bewusstsein zusprechen können oder wollen. Es können Unterschiede und Gemeinsamkeiten zwischen einem künstlich erschaffenen Menschen wie Frankensteins Monster und einem humanoiden, also menschenähnlichen, Roboter gesucht werden. Im Fremdsprachunterricht können die Schüler/-innen prüfen, wie gut maschinelles Übersetzen, beispielsweise mit Google Translator, funktioniert: Sie werden sehen, dass bei einem Satz wie „The doctor who visited the station was very young“ das Pronomen „who“ als „der“ übersetzt wird. Ersetzen sie „doctor“ durch „nurse“, wird das Pronomen dagegen mit „die“ übersetzt. Der Übersetzer hat hier also einen „Gender-Bias“, ein Vorurteil – Ärzte werden als männlich, Krankenpfleger als weiblich angenommen. Das liegt daran, dass die Daten, aus denen das Übersetzungsprogramm gelernt hat, diesen Bias enthalten.

In gesellschaftswissenschaftlichen Fächern kann die Lehrkraft mit der Klasse diskutieren, in welchen Berufen Künstliche Intelligenz – als Software oder in einem Roboter – Menschen bald oder in fernerer Zukunft ersetzen wird. Es wird sich herausstellen, dass stark regelbasierte Berufe wie Steuerberater einfacher zu ersetzen sind, während handwerkliche und soziale Berufe sich eher schwer ersetzen lassen.

Bislang zielt ein Großteil der KI-Forschung auf voll automatisierte, autonome Systeme ab. Zunehmend wird erkannt, dass in vielen Bereichen ein partnerschaftliches Miteinander von KI-System und Mensch notwendig und sinnvoll ist. Notwendig, wo menschliches Erfahrungswissen gefragt ist. Sinnvoll, wo es wichtig ist, dass menschliches Miteinander erhalten bleibt, etwa in der Pflege oder in der Schule: So kann ein Pflegeroboter beim Umbetten oder bei der Körperpflege unterstützen. Ein Gespräch führen oder ein Spiel spielen möchte man lieber mit einem Menschen. Auch in der Schule sollte KI dazu eingesetzt werden, Lehrkräfte zu entlasten, aber sie keinesfalls ersetzen.

KI zur Überwachung – auch in der Schule?

Ebenfalls in den Gesellschaftswissenschaften können Schülerinnen und Schüler diskutieren, in welchen Bereichen Programme bereits über wichtige Lebensbereiche entscheiden. Entscheidungen über Kreditvergaben beruhen schon seit vielen Jahren auf sogenannten ScoringAlgorithmen, bei denen Menschen aufgrund bestimmter Kriterien wie Alter, Verdienst oder Wohnort auf ihre Kreditwürdigkeit hin bewertet werden. Zukünftig könnten auch Krankenversicherungstarife oder die Einladung zu einem Vorstellungsgespräch von KI-Algorithmen beeinflusst werden. Hierzu können KI-Systeme personenbezogene Daten sowie Verhaltensdaten, wie sie über Smartwatch, Handy oder Suchverläufe im Internet erfassbar sind, nutzen.

Auch in der Schule könnten solche Ansätze Einzug halten. Je mehr Lernprozesse digitalisiert werden, desto mehr Daten lassen sich erfassen. So könnten persönliche Informationen wie Geschlecht, Herkunft und Leistungen in Tests zusammen mit Daten wie Lesedauer einer Seite oder der Beteiligung an Diskussionsforen verwendet werden, um vorherzusagen, ob eine Schülerin oder ein Schüler ein Fach oder ein Schuljahr erfolgreich abschließen wird. Dieses sogenannte „Learning analytics“ können Lehrkräfte nutzen, um frühzeitig Förderbedarf zu erkennen. Solche Funktionen können aber auch missbraucht werden, um Schülerinnen oder Schüler auszusortieren. Es liegt an uns, zu entscheiden, ob KI Schule zu einer rein auf Effzienz und Optimierung ausgerichteten Lernfabrik macht, oder ob KI so eingesetzt wird, dass Lehrkräfte entlastet werden – und mehr Zeit für individuelle Förderung entsteht.

Dieser Beitrag wurde zuerst veröffentlicht in:
didacta – Das Magazin für lebenslanges Lernen, Ausgabe 3/2020, S. 42-44, www.didacta-magazin.de


Mehr zum Thema


Schlagworte

Keine Kommentare vorhanden

Sie sind derzeit nicht angemeldet. Um Kommentare verfassen zu können, müssen Sie sich vorab bei uns registrieren. Alternativ können Sie sich über Ihren Facebook-Account anmelden.
Anmelden