Lengoo is permanently closed. Read more here.
Chatbots, Sprachassistenten und neuronale Maschinenübersetzung: Computer beherrschen die menschliche Sprache immer besser. Kann künstliche Intelligenz dann auch witzig sein? Warum die Frage wieder einmal zeigt, wie wichtig die Rolle des Menschen in der KI-Anwendung ist.
Computer verstehen die menschliche Sprache immer besser. Dank Methoden aus dem Bereich Natural Language Processing (NLP) - einem Zweig der künstlichen Intelligenz - können Maschinen eigenständig Texte übersetzen, sich wie Amazons Alexa mit Menschen unterhalten oder als virtueller Service-Chatbot die Fragen der Kund:innen beantworten. Dazu trainieren Computerwissenschaftler:innen Modelle aus künstlichen neuronalen Netzen mit Sprachdaten.
Wie NLP funktioniert lesen Sie hier: “Natural Language Processing macht Unternehmen digitaler und smarter”
Besonders große Sprachmodelle wie etwa der Textgenerator GPT-3 von OpenAI zeigen, dass Unterhaltungen zwischen Mensch und Maschine bis zu einem gewissen Grad ganz akzeptabel funktionieren. Diese Fortschritte hat die KI-Forschung dazu gebracht, noch einen Schritt weiter zu gehen: Wenn Computer menschliche Sprache lernen können, können sie dann auch Humor haben?
Humortraining ist “AI-Complete” - also “KI impossible”?
Wissenschaftler:innen versuchen seit einiger Zeit KI-Modelle zu trainieren, die Witze generieren können. Gar nicht so einfach. Sprache ist mit ihrer Mehrdeutigkeit schon eine Herausforderung für die Maschine. Humor, der oft von Doppeldeutigkeit lebt, ist dann so etwas wie eine Königsdisziplin. Wissenschaftler:innen ordnen das “Humortraining” von KI-Modellen der “AI-Complete”-Kategorie zu. Dazu zählt die Forschung die komplexesten Rechenprobleme, deren Lösung genauso schwer ist, wie eine Antwort auf die Frage zu finden: Was ist eigentlich Intelligenz? Eine humorvolle künstliche Intelligenz braucht ein Sprachmodell, das auf einem ähnlich hohen Niveau wie das menschliche Sprachzentrum funktioniert. Das bedeutet dann eigentlich, dass KI-Anwendungen den Humor, wie wir ihn von Menschen kennen, nicht entwickeln können.
Damit gab sich die Harvard Business School nicht zufrieden. Unter der Leitung von Michael H. Yeomans versuchten sich Forscher:innen der Universität einer humorvollen KI anzunähern. In einer Studie untersuchten sie, ob Menschen oder Maschinen besser vorhersagen können, ob ein Witz für einen Menschen lustig ist oder nicht. Damit testeten die Forscher:innen, wie weit KI an das menschliche Urteilsvermögen herankommt - mit dem wir Menschen ja zuerst den Humorgehalt des Witzes bewerten, bevor wir lachen.
KI sagt Humor-Gehalt von Witzen voraus
Für die Studie traten 75 Personenpaare gegen den Computer an. Interessant ist dabei, dass sich 71 % der Proband:innen länger als fünf Jahre kannten - also eigentlich ein Vorteil gegenüber der Maschine. Wer sich gut kennt, weiß wahrscheinlich besser, was den anderen zum Lachen bringt. Im Versuch bewertete Person A des Teams 33 Witze auf einer Skala von “extrem lustig” bis “überhaupt nicht lustig”. Danach sah sich Person B die Bewertungen für vier Witze an und versuchte basierend auf dieser Information vorherzusagen, wie lustig ihr Gegenüber acht weitere Witze finden würde.
Nach dem gleichen Schema versuchte sich der Algorithmus daran, den Humor-Gehalt vorherzusagen. Statt aber die sprachliche Struktur der Witze zu analysieren oder mit Witz-Merkmalen trainiert zu werden, basierten die Vorhersagen des Computers auf “kollaborativer Filterung”. Das heißt, die KI wertete das Verhalten der Testpersonen aus, um daraus Muster zu erkennen und so auf ihre Humor-Vorlieben zu schließen. Das überraschende Ergebnis: Die Einschätzung der künstlichen Intelligenz war genauer als die der Proband:innen. Der Algorithmus lag in 61 Prozent der Fälle richtig, Menschen dagegen nur in 57 Prozent der Fälle. Künstliche Intelligenz kann also zumindest verstehen, was Menschen tendenziell lustig finden.
Die KI in der Studie der Harvard Business School hat personenspezifisch gearbeitet. Um eine Witz-generierende KI zu trainieren, die wirklich eine breite Masse als amüsant empfindet, bräuchte es eine Voraussetzung: Die Menschheit müsste sich darüber einig sein, was als lustig ist und was nicht. Eine allgemeingültige Humor-Formel, die die KI lernen kann, gibt es aber nicht. Selbst wenn sich künstliche Intelligenz nur mit einem bestimmten Kulturraum beschäftigen würde, hängt es im Endeffekt von der individuellen Perspektive einer Person ab, über welche Witze sie lacht.
Die Sache mit der Ethik
Künstliche Intelligenz und Humor werfen auch Ethik-Fragen auf. “Was manche Menschen als lustig empfinden, kann andere verletzen”, sagt unsere Machine Translation Engineer Andrada Pumnea. Humor sei ein hochsensibles Thema, weil es Menschen gibt, die rassistische und sexistische Äußerungen lustig finden. “Und da die künstliche Intelligenz aus Beispielen in Form von Daten lernt, spiegelt der Output das natürlich wider. Entwickler:innen stehen in der Verantwortung, mögliche Diskriminierungen und die Verstärkung von Vorurteilen zu berücksichtigen.”
Wie so oft braucht KI in der Anwendung also Menschen im Prozess, die Fehler korrigieren, Datensätze anpassen und Modelle weitertrainieren. Eine künstliche Intelligenz kann mit sehr viel Aufwand begrenzt lustige Aussagen produzieren. Da Humor aber zu subjektiv und komplex ist, um allgemeine computergerechte Regeln aufzustellen, wird es wohl erst einmal bei Annäherungen bleiben. Fraglich ist auch, ob es KI mit Humor überhaupt braucht. “Am besten eignet sich die Technologie aktuell darin, den Menschen in klar definierten Bereichen zu unterstützen”, sagt Andrada.