Lernmittel

„Der Wodka schmeckt gut, aber das Fleisch ist vergammelt“

Ute Schmid, Expertin für Künstliche Intelligenz, hat gute Nachrichten: Maschinen werden nicht die Weltherrschaft übernehmen. Aber – richtig eingesetzt – den Arbeitsalltag vieler Lehrkräfte erleichtern. Von Silvia Schumacher

31.03.2020 Bundesweit Artikel didacta – Das Magazin für lebenslanges Lernen, Silvia Schumacher
  • © www.pixabay.com

didacta: Wie unterscheidet sich menschliches von maschinellem Lernen?
Dr. Ute Schmid: Menschen können komplizierte Dinge mit wenigen Beispielen lernen, Maschinen brauchen Unmengen an Daten. KI-Systeme können dann zwar in einem hoch spezialisierten Bereich extrem gut werden, sogar besser als der Mensch, aber das ist wie eine Inselbegabung zu bewerten. Ich erforsche, wie die KI und der Mensch eine Partnerschaft bilden können, in der Bildung beispielsweise mit kognitiven Tutor-Systemen.

Was kann ein kognitives Tutor-System?
Ein Beispiel aus der Grundschule: In der 3. Klasse sollen die Kinder in Mathe schriftliches Subtrahieren lernen und anwenden können. Jedes Jahr kommen aber Kinder in die nächste Klasse, ohne es zu können, weil viele Lehrkräfte nicht die Zeit haben, individuelle Fehlerdiagnosen zu betreiben. Sie korrigieren nur ‚Richtig‘ oder ‚Falsch‘. Würde man die Fehler analysieren, ließe sich womöglich erkennen, dass das Kind nur eine kleine Sache falsch macht, etwa beim Subtrahieren die kleinere Ziffer immer von der größeren abzieht, egal ob sie oben oder unten steht. Wenn die Lehrkraft das weiß, kann sie systematisch didaktisch intervenieren und diesen Fehler ausräumen. Dafür entwickeln wir kognitive Tutorsysteme, die ein Kind beim Lösen einer Aufgabe beobachten und automatisch die Fehlerkonzeption erkennen.

So wird individuelles Lernen möglich und die Lehrkraft kann gezielt auf das Kind eingehen?
Richtig. Und es bräuchte nicht einmal den Lehrer, um individuell auf das Kind einzugehen, auch das kann das System.

Wofür braucht es dann überhaupt die Lehrkraft?
Tutorsysteme ersetzen den Lehrer keinesfalls, sie ergänzen ihn. Man könnte den Matheunterricht so gestalten, dass der Lehrer das Subtrahieren einführt und die Schüler mit dem Tutor üben. Die Lernforschung hat gezeigt, dass man vor allem in den MINT-Fächern nicht durch Erklären lernt, sondern indem man etwas selbst tut. Genau das kann solch ein System – es erklärt nicht in Texten, sondern erstellt anhand einer Wissensdiagnose ähnliche Aufgaben und lässt die Schüler wiederholen. Das ist die zentrale intelligente Komponente.

Im Gegensatz zu Lern-Apps, die nur nach dem Richtig-Falsch-Prinzip arbeiten?
Genau. Eine primitive ‚Richtig/Falsch‘-Auswertung wie bei Multiple Choice-Tests oder bei Vokabeltrainern hat nichts mit Künstlicher Intelligenz zu tun.

Dr. Ute Schmid ist Informatikerin und Psychologin. Sie leitet die Professur für Angewandte Informatik, insbesondere für Kognitive Systeme, an der Universität Bamberg und forscht zu menschlichem und maschinellem Lernen.

Was genau ist denn unter KI – also Künstlicher Intelligenz also zu verstehen?
In der Forschung ist KI ein Bereich der Informatik, in dem es darum geht, Fähigkeiten von Menschen algorithmisch umzusetzen – beispielsweise logisches Erschließen, Objekte erkennen, Entscheidungen treffen, Probleme lösen, maschinelles Übersetzen. Das sind Fähigkeiten, die wir Menschen gut können und die die Forschung in der KI umzusetzen versucht. Heutzutage wird häufig maschinelles Lernen als Synonym zu KI gesehen. Maschinelles Lernen ist aber ein Teilgebiet der KI. Maschinelles Lernen gibt es wie KI schon lange. Bereits in den 40er-Jahren des letzten Jahrhunderts wurden die ersten künstlichen neuronalen Netze entwickelt. Dann folgte auf die KI-Hochphase ein KI-Winter, da die Versprechen nicht erfüllt wurden.

Können Sie ein Beispiel nennen?
Bei der maschinellen Übersetzung passierten Fehler, die Redewendung „Der Geist ist willig, das Fleisch ist schwach“ wurde vom Englischen ins Russische beispielsweise zurückübersetzt in „Der Wodka schmeckt gut, aber das Fleisch ist vergammelt“. Die zweite Hochphase folgte in den 80er- und 90er-Jahren, in denen Expertensysteme und spezielle Programmiersprachen entwickelt wurden. Aus dieser Zeit stammen bereits beeindruckende Konzepte für den Bildungsbereich. Eines dieser Systeme, ein Mathe-Tutor, existiert schon seit den 1990er- Jahren und wird an vielen Schulen im Osten der USA erfolgreich eingesetzt. Dieses frühe System basiert auf vorgegebenen Regeln, mit denen der Computer korrekte und fehlerhafte Lösungen herleiten kann. Moderne Tutorsysteme funktionieren anders, sie nutzen zusätzlich maschinelles Lernen, um sich individuell an Lernende anzupassen.

Lernen solche Systeme also selbst dazu?
Das ist häufig eine Fehleinschätzung. Die meisten KI-Erfolge arbeiten so, dass erst viele Daten gesammelt werden und daraus gelernt wird. Das System lernt aber nicht weiter. Das trifft insbesondere auch auf Bildklassifikation mit Deep Learning zu. Allgemein gilt, dass rein datengetriebene Ansätze auf Mustererkennung basieren, aber diese Systeme die Eingaben nicht im menschlichen Sinne verstehen.

Szenarien, dass Computer intelligenter werden könnten als der Mensch, sind also Unfug?
Lassen Sie es mich so sagen: Bei einem Taschenrechner, der eine Super-Intelligenz in Bezug auf Rechnen hat, würde nie jemand annehmen, dass er die Weltherrschaft übernehmen könnte. Erstaunlicherweise denken wir das aber bei einem System, das selbstständig „Go“ spielen kann und den Menschen schlägt. Aber es kann nur das und weiß nicht einmal, dass es Go spielt. Es hat kein Bewusstsein und keine Intentionalität. Daher sage ich, wie viele andere Forscher, dass es unwahrscheinlich ist, dass Maschinen ein Bewusstsein entwickeln. Aber wissen kann man es nicht.

Wo sehen Sie Gefahren bei Künstlicher Intelligenz, insbesondere im Bildungsbereich?
Ich bin der der Meinung, dass es generell eine gute Balance braucht zwischen analogem und digitalem Lernen. Je jünger die Kinder, desto mehr analoges Lernen braucht es, um zu begreifen. Ein besonderes Problem bei KI in der Schule sehe ich bei sogenanntem Learning Analytics, wenn das Verhalten der Schüler überwacht wird. Wie es bereits an chinesischen Schulen der Fall ist, wo Schülerverhalten aufgezeichnet, kontrolliert und mit KI analysiert wird. Das ist ein gutes Beispiel. Es geht zu weit, wenn wir die Verweildauer auf einer Seite oder den Gesichtsausdruck eines Schülers als Indiz dafür nehmen, wie intensiv er sich mit einem Stoff beschäftigt hat. Dann ‚behaviorisieren‘ wir das Lernen und bilden es rein in einfach beobachtbarem Verhalten ab. Das würde eine ‚Enthumboldtisierung‘ der Schule bedeuten und kann nicht der Weg in die Bildung der Zukunft sein.

Sondern?
Wir sollten eine Forschung fördern, die partnerschaftliche, transparente KI-Entwicklungen vorantreibt und das auch im Bildungsbereich. Das Management einer Schulklasse ist eine hochkomplexe Angelegenheit – hier eine KI zu haben, die differenzierte Infos gibt, und durch die, wie oben beschrieben, Individualisierung gefördert wird, würde Lehrkräfte enorm entlasten. Die Bildung der Zukunft umfasst aber auch, dass Lehrkräfte und  Schüler ein Verständnis dafür haben, was maschinelles Lernen ist, und eine gesunde Skepsis entwickeln.

Sie sollen also computergestützte Entscheidungen und Handlungen auch hinterfragen?
Absolut. Uns muss klar sein, dass ein Computer nicht immer objektive Entscheidungen trifft, und dass keine Software der Welt 100 Prozent korrekt sein kann. Beim maschinellen Lernen wird über beobachtete Daten hinaus generalisiert. Wenn ich aus Beobachtungen lerne, alle Schwäne sind weiß, funktioniert das so lange, bis man einen schwarzen Schwan entdeckt. Beim maschinellen Lernen kann es auch vorkommen, dass die Beispiele, aus denen der Computer lernt, nicht alle Fälle abdecken. Mit Pech erkennt das autonome Auto vielleicht nicht, dass das Stoppschild ein Stoppschild ist. Nur, wenn uns das klar ist, können wir beurteilen, was in der Welt um uns vorgeht. In vielen Bereichen, gerade in solchen, wo es darum geht, über Dinge zu entscheiden, die gefährlich sind und die uns Menschen direkt betreffen, ist es wichtig, dass transparent gemacht wird, auf welchen Informationen ein System seine Entscheidungen stützt. Wir haben ein Recht darauf zu verstehen, dass uns möglicherweise die Krankenkasse mehr Geld abknöpft, da sie aus Indikatoren ableitet, dass wir ein höheres Risiko für eine Krankheit haben.

Dieser Beitrag wurde zuerst veröffentlicht in:
didacta – Das Magazin für lebenslanges Lernen, Ausgabe 1/2020, S. 58-61, www.didacta-magazin.de



Mehr zum Thema


Schlagworte

Keine Kommentare vorhanden

Sie sind derzeit nicht angemeldet. Um Kommentare verfassen zu können, müssen Sie sich vorab bei uns registrieren. Alternativ können Sie sich über Ihren Facebook-Account anmelden.
Anmelden