DIE ENTSCHEIDUNGSINTELLIGENZ BLEIBT BEI UNS

Der Publizist Thomas Ramge ist vielfach ausgezeichneter Sachbuchautor. In seinen Büchern befasst er sich regelmäßig mit dem Thema Artificial Intelligence und dem Mensch-Maschine-Verhältnis. Nach den 2020 erschienenen Werken „postdigital“ und „Machtmaschinen“ steht dies auch im Fokus seiner aktuellen Publikation „Augmented Intelligence. Wie wir mit Daten und KI besser entscheiden“.

DIALOG: Herr Ramge, was prägt unsere Beziehung zu „Artificial Intelligence“?

TR: Missverständnisse und Unklarheiten. Unsere Vorstellungen von Artificial Intelligence sind stark von der Science Fiction beeinflusst: Maschinen, die sich vom Menschen entkoppeln, ihn unterwerfen oder auslöschen. Nach dem Stand der Wissenschaft sind das aber völlig abwegige Szenarien. Wir kennen keinen technologischen Entwicklungspfad, auf dem das tatsächlich passieren könnte.

Hinzu kommt, dass der Begriff „Artificial Intelligence“ unpräzise ist, es gibt keinen wirklichen Common Sense. Das zeigt sich auch darin, dass wir die zukünftige Leistungsfähigkeit von AI überschätzen und zugleich die von Computern oder Systemen unterschätzen, die bereits mit maschinellem Lernen arbeiten. Denn der Begriff „Künstliche Intelligenz“ deutet ja auch an, dass Computer den gleichen Limitationen unterliegen würden wie die menschliche Intelligenz. Das ist ebenfalls nicht der Fall – im Rechnen, im Speichern von Wissen und vielen weiteren Dingen ist uns die Technologie natürlich längst überlegen.

DIALOG: Warum sprechen Sie lieber von „Augmented Intelligence“?

TR: Der Begriff „Augmented Intelligence“ bezieht sich präziser auf einen entscheidenden Aspekt des Verhältnisses zwischen Mensch und Technologie. Er soll zeigen, wofür aus Daten lernende Systeme geeignet sind: nämlich menschliche Intelligenz zu verstärken, zu augmentieren.
Das ist der Kern der Idee: raus aus dem Hype, dass AI unendlich schlau wird und uns die Arbeit abnimmt. Vielmehr geht es darum, zu verstehen, dass aus Daten lernende Systeme uns Menschen in immer mehr Bereichen unterstützen können, Dinge besser, schneller, günstiger, präziser zu erledigen, bis hin zur Automatisierung von Routineentscheidungen. Wie wäre es also, wenn wir AI nicht als Technologie verstehen, die menschliche Intelligenz ersetzt, sondern verstärkt? Tatsächlich war das auch bereits ein Kerngedanke der frühen AI-Forschung in den 1960er Jahren, der heute wieder Aufmerksamkeit erhält.

DIALOG: In naher Zukunft könnte uns also eine AI als „Personal Assistent“ begleiten, der uns auch bei schwerwiegenderen Entscheidungen als der Playlist-Zusammenstellung Ratschläge gibt?

TR: Die Assistentenrolle beschreibt es gut. Aber beim Thema Entscheidungen muss man differenzieren. Es gibt Entscheidungssituationen, in denen aus Daten lernende Systeme eine gute Datengrundlage haben, um mit hoher Wahrscheinlichkeit vorauszuberechnen, welches die bessere Option ist – siehe die Routenplanung als klassisches Beispiel. In solchen Situationen sind wir gut beraten, die Entscheidung an die AI zu delegieren.

Sobald es aber um Entscheidungen unter hoher Unsicherheit geht, kann uns kein Computer helfen. Zumindest so lange nicht, bis er genügend vergleichbare Situationen erfassen konnte, um daraus eine Prognose zu errechnen, wie die Zukunft aussehen könnte. Bei Ihrer Playlist ist das deutlich einfacher als z.B. bei der Frage, für welches Studium Sie sich entscheiden sollten. Entscheidungen sind im Kern Simulations- oder Projektionsübungen. Wir projizieren uns in Varianten der Zukunft und überlegen dann, ob Zukunft A oder Zukunft B der für uns interessantere oder bessere Weg ist. Aber weder der Computer noch wir kennen die Zukunft.

DIALOG: Worin sehen Sie dann die Stärken der AI?

TR: In den banaleren Hilfestellungen als den großen philosophischen Fragen. AI kann mir helfen, an meinen Optionen zu arbeiten. Ein Beispiel: Auf der einen Seite sind wir häufig von der Informationsüberflutung und den Optionen überfordert, die uns Computer zuspielen. Zugleich aber können uns IT-Systeme mit Taxonomien, also mit Filtern helfen, die Auswahl einzuschränken. Indem wir Empfehlungsalgorithmen nutzen oder Suchraster verwenden, hilft uns eine Entscheidungsassistenz also bereits, überhaupt erst mal die Optionen für eine Entscheidung herauszuarbeiten.
Hier zeigt sich allerdings auch die Grenze der Leistungsfähigkeit von AI. Eine Maschine bzw. Technologie kann uns dabei assistieren, etwas zu suchen. Sie kann uns sogar helfen, die Suche weiter zu präzisieren. Aber in der Regel kann sie uns nicht sagen, wonach wir überhaupt suchen
sollten. Das ist aber der Kern von Entscheidungsintelligenz.

DIALOG: Jetzt überschätzen Sie vielleicht die menschlichen Fähigkeiten …

TR: Natürlich sollte man das menschliche Verantwortungsbewusstsein und die menschliche Entscheidungsfähigkeit immer infrage stellen. Und aus AI-Sicht mag der Mensch tatsächlich ein schwacher Gegner sein. Wir tappen permanent in Entscheidungsfallen, bei denen uns alles Mögliche in die Quere kommt: unsere Verzerrungen, unsere Emotionen, unsere Kurzsichtigkeit oder unsere Habgier – lauter Faktoren, die bei gut programmierten Maschinen nicht auftreten.

DIALOG: Dennoch treffen wir bessere Entscheidungen …

TR: Nicht zwingend, aber das ist natürlich eine sehr eingeschränkte Betrachtungsweise. Was macht denn die Leistungsfähigkeit von AI tatsächlich aus? Da sprechen wir ausschließlich über repetitive Aufgaben, also Situationen, die immer wieder vorkommen und sich gut digital abbilden lassen. Überall wo das der Fall ist, sind intelligente Maschinen auf einem guten Weg, menschliche Entscheidungsintelligenz zu toppen und in der Regel auch bis dato menschliche Tätigkeiten zu übernehmen. Überall wo das nicht der Fall ist, kennen wir zurzeit technologisch keine sinnvollen Wege, das zu realisieren.

Was aber menschliche Intelligenz wirklich ausmacht, ist die Fähigkeit, herauszufinden, was zu tun ist, wenn wir nicht wissen, was zu tun ist – so hat es der Kognitionswissenschaftler John Piaget treffend formuliert. Quasi, sich in einem „datenarmen“ Raum zu bewegen mit unserer menschlichen Neugier. Da verläuft momentan auch die Grenze, bis zu der uns AI helfen kann.

DIALOG: Zugleich werden sich die Algorithmen doch selbst weiter verbessern. Wie sollten wir damit umgehen?

TR: Wir müssen in der Lage sein zu erkennen, ob uns die maschinelle Assistenz wirklich nützt oder ob das nicht der Fall ist. Das ist die entscheidende Kompetenz, die wir – ganz im Sinne des Konzepts der Augmented Intelligence – entwickeln müssen.

Diese Grenze wird sich in vielen Bereichen immer weiter in Richtung Maschine verschieben, was per se eine gute Nachricht ist. Das kann unser Leben besser, sicherer, gesünder machen. Dazu gehört, uns von Routinen zu entlasten, zu denen wir keine Lust haben oder die uns schwerfallen. Was uns wiederum Raum, Zeit, Energie verschafft für Dinge, bei denen Maschinen uns nicht unterstützen können.

DIALOG: Wie steht es mit der menschlichen Intuition – ist die in einem Code darstellbar?

TR: Tatsächlich ist AI oft recht intuitiv. Intuition ist ja im Grunde ein unbewusster Entscheidungsmechanismus, basierend auf dem Erfahrungswissen, das wir im Laufe unseres Lebens sammeln, unterstützt durch „Daumenregeln“, die wir explizit kennen oder implizit spüren, jedenfalls nicht mehr kognitiv bewusst ablaufen lassen.

Damit sind wir aber in der Regel im Feld der Muster bzw. der Mustererkennung unterwegs und somit in einem Bereich, in dem uns aus Daten lernende Maschinen helfen können, etwa indem uns künstliche Intuition herausfordert, im Sinne einer Intuitionsassistenz. Vorstellbar ist ein Computer, der unsere Überlegungen reflektiert, im Sinne von: „Irgendwas stimmt hier nicht. Was es ist, weiß ich auch nicht, aber denk noch mal nach.“ Das wäre ebenfalls eine große Hilfe, die unsere menschliche Intelligenz unterstützen könnte in unserem Streben, mehr zu wissen, intelligenter zu entscheiden, Neues zu entwickeln.