Augmented Intelligence: Wie KI uns hilft, besser zu entscheiden

Wie können Menschen mit Daten und KI bessere Entscheidungen treffen? Sachbuchautor und Wirtschaftsjournalist Thomas Ramge geht der Frage nach - ein Gastbeitrag.

Augmented Intelligence: Wie KI uns hilft, besser zu entscheiden
By:
Lengoo Marketing Team
Date:
May 5, 2021

2009, zu Beginn der Big-Data-Euphorie, schrieb der Silicon-Valley-Vordenker und Chefredakteur des Wired Magazine, Chris Anderson, seinen viel beachteten Text mit dem Titel »The End of Theory«. Seine Prognose damals lautete:

"Dies ist die Welt, in der Big Data und angewandte Mathematik jedes andere Erkenntniswerkzeug ersetzen. Weg mit jeder Theorie zum menschlichen Verhalten – von der Linguistik bis zur Soziologie! Vergesst Taxonomie, Ontologie und Psychologie! Wer weiß schon, warum Menschen sich so und nicht anders verhalten? Der Punkt ist, sie tun es, und wir können es mit beispielloser Genauigkeit messen und erfassen. Wenn wir nur genug Daten haben, sprechen sie für sich selbst.“

Ein gutes Jahrzehnt später können wir je nach Perspektive und Anwendungsfall entweder enttäuscht oder erleichtert feststellen: Die Welt ist unberechenbar geblieben. Die Daten sprechen nicht für sich selbst. Die vielen Hundert Milliarden Dollar öffentlicher Forschungsgelder und privatwirtschaftlicher Investitionen in Massendatenanalyse und maschinelles Lernen werden von der Komplexität des Lebens ausgekontert. Sie haben die Grenze zwischen Vorhersagbarkeit und Chaos ein klein wenig zugunsten der Statistiker verschoben.

Wir treffen Entscheidungen in Unsicherheit

Und der Laplace’sche Dämon, der die Zukunft vollständig ausrechnen und vorhersagen kann, bleibt vorerst ein erkenntnistheoretisches Gedankenspiel, eine Fantasie: 1814 fragte sich der französische Mathematiker, Philosoph und Astronom Pierre-Simon Laplace, ob nicht alle Naturgesetze in einer geschlossenen mathematischen Weltformel zu fassen sind. Diese mathematisch beschreibbaren Gesetze müssten dann nicht nur für alle Himmelskörper gelten, sondern für jedes einzelne Atom im Universum. Konsequent zu Ende gedacht hieße dies, unser Leben wäre vorherbestimmt. Ein allwissender Dämon könnte also alles mit der Weltformel vorhersagen. Die Heisenberg’sche Unschärferelation besagt vereinfacht gefasst, dass unsere Beobachtung den beobachteten Gegenstand schon immer verändert: An die Sache selbst kommen wir nie heran.

Ähnlich geht es auf Quantenebene zu. Man könnte befürchten, dass die quantentheorietypische Unschärfe uns ständig verfolgt. Wir müssen entscheiden, obwohl man letztlich nichts Genaues wissen kann. Im Sinne der Gesetze der Quantenmechanik können wir uns aber einer Sache absolut sicher sein: dass wir Entscheidungen in Unsicherheit treffen müssen – und dies auch dürfen. Wir sind für unsere Entscheidungen und damit für unser Glück weiter selbst verantwortlich. Das sollte uns ein zusätzlicher Ansporn dafür sein, unsere Entscheidungsfindung zu verbessern. Dabei können uns Datenreichtum und maschinelles Lernen unter Umständen auf einer ganz anderen Ebene helfen, als dies zurzeit diskutiert wird.

Instinkte vs. Rationalität

Seit den Arbeiten von Herbert Simon in den 1950er Jahren stehen wir Menschen als Wesen mit eingeschränkter Rationalität unter dem Generalverdacht, systematisch schlechte Entscheidungen zu treffen. Spätestens seit dem Nobelpreis für Daniel Kahneman kennen wir den Grund für unsere Entscheidungsschwäche: Das biologisch in unser Gehirn codierte System 1 mit seinen verzerrenden Instinkten torpediert permanent die rationale, bezogen auf unsere Ziele deutlich objektivere Entscheidungsfindung in System 2.

Dieses von der Verhaltensökonomie zur Allgemeinbildung erhobene Narrativ ist im Hinblick auf die Kernfrage dieses Buchs, wie wir mit Hilfe von Daten und KI besser informierte Entscheidungen treffen können, in doppelter Hinsicht interessant: KI-Systeme stehen heute ihrerseits unter Generalverdacht, dass sie die menschliche Bias verstärken und skalieren. Sie gelten als »Weapons of Math Destruction«. Die genannten Beispiele für die soziale Sprengkraft der Algorithmen sind dabei immer die gleichen.

Ein Amazon-Recruiting-System diskriminiert weibliche Programmiererinnen, weil es in den Lerndaten nur Männer als Programmierer findet und die falschen Schlüsse aus den Daten zieht. Die amerikanische Justiz-Software COMPAS zur Prognose von Rückfallquoten von Strafgefangenen, die vorzeitig aus der Haft entlassen werden könnten, verstärkt rassistische Entscheidungen von Richtern. Scoring-Algorithmen diskriminieren solvente Bankkunden, die an der falschen Adresse wohnen. Ein französisches System schickt die Abiturienten aus den heruntergekommenen Vororten bzw. den Banlieues auf die schlechteren Universitäten, die in der Nähe der sozial prekären Vorstädte liegen, und nicht in die bürgerlichen Viertel im Zentrum. Im Einzelfall mag es diese negativ verstärkenden Effekte tatsächlich geben, auch wenn beispielsweise der Amazon-Recruiting-Bot nie wirklich Programmierer rekrutiert hat, sondern nur ein Test war, dem keine einzige Programmiererin in einem realen Bewerbungsprozess zum Opfer fiel.

Maschinelles Lernen deckt Bias auf  

Der springende Punkt hier ist: Maschinelles Lernen eignet sich hervorragend dafür, menschliche Bias bei Entscheidungen offenzulegen und zu korrigieren. Amazons Personalverantwortliche können das System jederzeit auf Bias testen, indem sie Lebensläufe mit gleichem Qualifikationsniveau einfüttern und dann feststellen, ob sie illegalerweise ein Geschlecht, eine bestimmte Hautfarbe oder eine sexuelle Orientierung bevorzugen. Die Vorurteile eines menschlichen Entscheiders lassen sich nicht so leicht systematisch aufdecken und beheben.

Auf der anderen Seite könnten KI-Systeme künftig Forschern und Innovatoren aller Branchen und Bereiche kräftige Schubser verpassen, ihre festgefügten Annahmen und ihre wissenschaftlich abgesichert scheinenden Modelle zu hinterfragen. Als die Google-Maschine AlphaGo im März 2016 einen der besten Go-Spieler Lee Sedol in einer ähnlich interessanten Maschine-gegen-Mensch-Serie wie einst Deep Blue gegen Kasparow bezwang, wurde der Spieler von den Zügen der KI immer wieder überrascht und seine Verblüffung war ihm auch immer wieder ins Gesicht geschrieben. Das lernende System stellte in Frage, was menschliche Spieler für unumstößliche Regeln erfolgversprechender Spielentscheidungen hielten. Wenn wir rational und in System 2 über komplizierte oder komplexe Entscheidungen grübeln, kommt automatisch immer wieder unser System 1 ins Spiel. Unser Gefühl sagt uns dann, dass irgendwas nicht stimmt: Ich habe etwas übersehen, oder eigentlich passt eine ins Auge gefasste, eigentlich logisch sinnvolle Option gar nicht zu meinen Zielen.

Unsere Entscheidungsfindung rechtzeitig zu hinterfragen, könnte zu den wichtigsten Aufgaben von KI-Entscheidungsassistenten avancieren. Sie können uns helfen, unsere Entscheidungen stärker in System 2 zu treffen, indem sie unsere Intuition unterstützen und uns helfen, unsere Entscheidungsfindung im Hinblick auf unsere Ziele stärker zu hinterfragen. Damit kämen wir häufiger dem eigentlichen Ziel von Entscheidungen näher: mit unseren Entscheidungen glücklich zu werden. Aus Künstlicher Intelligenz wird dann Künstliche Intelligenzverstärkung. Und das englische Kürzel „AI“ steht nicht mehr für „Artificial Intelligence“, sondern „Augmented Intelligence“.    

Mehr zum Thema:

Der Text ist ein angepasster Auszug aus Thomas Ramges Buch "Augmented Intelligence – Wie wir mit Daten und KI besser entscheiden" (Reclam Verlag, 2020).