KI-Systeme zu trainieren ist wie Kinder unterrichten

Genauso wie junge Schüler:innen braucht auch KI gute Lehrer:innen. Sprachmodelle benötigen gutes Training, Orientierung und ein bisschen Nachsicht.

KI-Systeme zu trainieren ist wie Kinder unterrichten
By:
Lengoo Marketing Team
Date:
Apr 28, 2021

Das Faszinierende an künstlicher Intelligenz (KI) ist, dass die Technologie lernen kann. Das ist eine Fähigkeit, von der wir lange geglaubt haben, dass nur Menschen und Tiere sie beherrschen. Maschinen, die lernen können, brauchen also gute menschliche Lehrer:innen. Wenn intelligente Computer die menschliche Sprache für die maschinelle Übersetzung erlernen, lässt sich das mit dem Unterrichten eines jungen Schülers vergleichen.

KI – das ahnungslose Kind

Wie ein Kind, das in diese Welt hineingeboren wird, ist auch die KI in ihrem Wesen ziemlich ahnungslos. Das Sprachmodell mit seinen neuronalen Netze ist erst einmal ein unbeschriebenes Blatt. Es weiß noch nichts von der Welt, verfügt noch über keinen Wortschatz und spricht schon gar nicht mehrere Sprachen. Bevor Datenwissenschaftler:innen mit dem Training eines Modells beginnen, habe sie lediglich einen chaotischen Zahlenhaufen vor sich.

Ein Kind lernt die Sprache, mit der es aufwächst. Ähnlich wie Kinder verarbeiten auch Maschinenübersetzungssysteme die Informationen, denen sie ausgesetzt sind. IT-Ingenieur:innen zeigen den Modellen Beispiele von Sprachbausteinen in Form von Daten. Dann beginnen die neuronalen Netze, Verknüpfungen herzustellen und zu lernen. Genauso wie ein Kind zunächst einzelne Wörter lernt und dann nach und nach anfängt, den Kontext und die Bedeutung zu verstehen.

Daten als Ausbildung

Die Datenqualität ist für das maschinelle Lernen von zentraler Bedeutung. Von Schüler:innen, die keinen guten Matheunterricht bekommen haben, würden wir auch nicht erwarten, dass sie über Nacht die Klassenbesten werden. Sprachmodelle sind nur so schlau, wie sie gemacht werden. Um ein gut trainiertes Modell zu entwickeln, verbessern IT-Ingenieur:innen die Datenqualität. Dazu filtern und ergänzen sie die Daten, bevor das Sprachmodell diese zu sehen bekommt. Guter Input bedeutet guter Output.

Es gibt jedoch einen wesentlichen Unterschied zum menschlichen Lernprozess. KI-Systeme verfügen nur über einen sehr begrenzten Einblick in unsere Welt und können sie nicht wie wir Menschen selbst erkunden. Sie kennen nichts anderes als die Daten und die Sprachbeispiele, die ihre menschlichen Lehrer:innen bereitstellen. Ein Sprachmodell kann sich also nur bis zu einem gewissen Grad Sprachwissen aneignen. Man muss auch bedenken, dass die menschliche Sprache sehr komplex ist. Maschinen verfügen über keine Sinne und können nicht interagieren, um sich implizite Bedeutungen und Kontext zu erschließen. Deshalb werden Sprachmodelle mit riesigen Menge an Daten trainiert. Ziel ist es, der Maschine möglichst viele Informationen über unsere Welt in digitaler Form zur Verfügung zu stellen.

Voreingenommenheit lernen

Aus Studien geht hervor, dass bereits Vorschulkinder Anzeichen von Voreingenommenheit zeigen. Kinder eignen sich Verhaltensweisen aus sozialen Interaktionen leicht an. Während sie das Verhalten von Erwachsenen nachahmen, übernehmen auch KI-Systeme die Voreingenommenheit von Menschen. Genauer gesagt, von Daten, die von Menschen generiert wurden. Wenn ein Chatbot zum Beispiel anhand allgemein zugänglicher Daten trainiert wird, lernt er, wie Menschen kommunizieren. Dazu gehören dann auch diskriminierende Aussagen. Wie beispielsweise der Chatbot Tay von Microsoft, der mit Sprachbeispielen aus öffentlichen Daten auf Twitter trainiert wurde. Der Bot fing an, beleidigende Ausdrücke von sich zu geben und wurde sehr schnell zu einem rassistischen Sexisten.

Zu verhindern, dass KI sprachlich Vorurteile verstärkt oder reproduziert ist schwierig. Dazu müssten Menschen genau definieren, was als „richtig“ oder „angemessen“ gilt. So wie Lehrer:innen, die durch ihre Vorbildfunktion Schüler:innen dabei helfen können, Vorurteile und Voreingenommenheit abzulegen, müssen sich Datenwissenschaftler:innen dieses Problems bewusst sein und proaktiv dagegen vorgehen, wenn sie Trainingsdaten und Hyperparameter auswählen.

Junge Schüler:innen machen Fehler und brauchen Anleitung

Schüler:innen machen Fehler. Klar, oder? Von Maschinen dagegen, erwarten die meisten Menschen, dass sie völlig fehlerfrei funktionieren, und dulden keine Pannen, besonders wenn es sich um künstliche Intelligenz handelt. Der Begriff selbst suggeriert, dass die Maschine der menschlichen Intelligenz ebenbürtig zu sein hat – nur ohne die Gefühlswelt. Viele Leute gehen also davon aus oder haben den Anspruch, dass KI-Systeme völlig ohne Überwachung stets einwandfrei funktionieren. Aber genau wie ihre menschlichen Schöpfer:innen sind auch Maschinen nicht perfekt.

Wenn wir Kindern etwas beibringen, dann rechnen wir damit, dass sie Fehler machen, bevor sie eine Sache richtig gut können. Lehrer:innen berichtigen ihre Schüler:innen und unterstützen sie auf ihrem Weg, ein neues Thema zu begreifen und zu beherrschen. Auch eine KI muss Dinge erst lernen. Fehler zu machen gehört zum Lernprozess dazu.

Wenn ein Sprachmodell keine guten Leistungen erbringt, passen die IT-Ingenieur:innen zum Beispiel die Lernparameter der Maschinenübersetzungssysteme anpassen. Sie können dem System also die Anweisung geben, eine Übersetzung gegenüber einer anderen zu bevorzugen. Dazu müssen sie Modelle mit verbesserten Datensätzen und anderen Hyperparametern neu trainieren.

Man lernt nie aus

Für Menschen hören nicht plötzlich auf, zu lernen. Ihre Umgebung ändert sich ständig und sie passen sich an. Sie müssen ihren Horizont erweitern und sich neue Fähigkeiten aneignen, um auf dieser Welt ein erfolgreiches Leben zu führen. Das Gleiche gilt auch für KI. Ein trainiertes Modell muss neu trainiert werden, wenn sich die Gegebenheiten ändern. Man kann nicht dasselbe Modell verwenden, das für eine bestimmte Aufgabe "ausgebildet" wurde, und dann erwarten, dass es auch in einem anderen Kontext gut funktioniert. Ein Sprachmodell, das für die Übersetzung von Produktbeschreibungen aus dem Französischen ins Schwedische trainiert wurde, funktioniert weniger gut für die Übersetzung von Marketinginhalten aus dem Chinesischen ins Französische. Von Schüler:innen, die nur eine Fremdsprache gelernt haben, würden auch niemand erwarten, dass sie von einem Tag auf den anderen eine weitere Sprache fließend beherrschen. KI ist kein Zauberwesen, das alles gut kann. Modelle brauchen ein spezielles Training für neue Aufgaben oder neue Anwendungsbereiche.