Nur Menschen erschaffen effektive Erklärungen. Keine andere bekannte Lebensform ist dazu in der Lage. Unablässig sucht unser Gehirn nach Mechanismen, die sich zur Erläuterung des beobachteten Geschehens eignen. Und gelangt dabei zu Resultaten, die von abstrakten wissenschaftlichen Thesen bis hin zu Annahmen über den Hintergrund alltäglicher Gespräche reichen. Solche Modellvorstellungen gestatten uns ein Verständnis jenseits der Oberflächlichkeit reiner Sinneswahrnehmungen und ermöglichen langfristig planendes Vorgehen statt lediglich instinktiver Aktion. Als „effektiv“ sind Erklärungen mit einer über den konkreten Anlass hinausweisenden Wirkung anzusehen, die zusätzlich neue Optionen öffnen oder nicht berücksichtigte, mitunter noch nicht einmal registrierbare Phänomene ebenfalls umfassen. Ob wirklich stimmt, was wir uns jeweils zusammenreimen, ist dabei völlig unerheblich. Lediglich die Anwendbarkeit einer Hypothese zählt, ihre Zweckmäßigkeit hinsichtlich des angestrebten Ziels und der auf ihrer Grundlage errungene Erfolg. Selbst Irrtümer können zu positiven Ergebnissen führen und daher jede Widerlegung überdauern. Newton lag falsch, dennoch nutzen wir seine Physik noch immer.
Doch ist das Erklären selbst bislang unerklärt. Wir haben keine Ahnung, wie wir das eigentlich anstellen und warum nur wir das vermögen. Als nicht hilfreich erweist sich insbesondere der Ansatz, der Antwort auf diese Frage durch die Erstellung fortgeschrittener Software näherzukommen. Künstliche Intelligenzen (KI) lehren uns lediglich, wie wenig das Generieren von Erklärungen mit messbarer Intelligenz zusammenhängt.
Zweifellos verfügen KI über außergewöhnliche, den Menschen bereits in vielen Zusammenhängen übertreffende Fähigkeiten. Da ihr Können mit prinzipiell nicht limitierten Parametern wie der Rechengeschwindigkeit, der Datenverarbeitungskapazität und dem Vorhandensein verarbeitbarer Daten steigt, werden sie uns schon bald grundsätzlich überrunden. Alles andere wäre auch überraschend, also in neuer Weise erklärungsbedürftig, würde es doch auf eine prinzipielle Begrenzung unserer bislang universell erscheinenden Schöpfungskraft hinweisen. Menschgemachte Algorithmen für das logische Deduzieren, das plausible, also probabilistische Schätzen oder das evolutionäre Optimieren dienen ja genau der exemplarischen Nachbildung biochemisch begründeter kalkulatorischer Fertigkeiten auf digitalen Rechenmaschinen. Ihre Potenz belegt einmal mehr die menschliche Brillanz in der Konstruktion ihm überlegener Apparate. ChatGPT und andere derzeit vieldiskutierte Systeme, die man vielleicht treffender als „SI“, als „Simulierte Intelligenzen“ bezeichnen sollte, stellen daher einen Grund zum Feiern dar. Anlass zu Befürchtungen bieten sie gerade nicht.
Viele Fragestellungen sind aufgrund der Menge an Entscheidungsoptionen und des Umfangs der Eingangsdaten mit Brute-Force-Algorithmen kaum zu bewältigen. Hier bedarf es eleganterer, effizienterer Ansätze. Und wieder sind es menschliche Erklärer, denen es gelungen ist, so etwas wie die Erkennung von Mustern mathematisch auf das Finden von Nullstellen komplexer Funktionen zurückzuführen. Was wiederum eine zwar immer noch lange, aber letztendlich begrenzte Abfolge von Additionen erfordert. Nichts anderes leisten neuronale Netzwerke, sie berechnen die Nullstellen gigantisch großer Polynome, um Go zu spielen oder Bildmotive zu analysieren.
Mit menschlichem Denken hat das nichts zu tun. Wir zerlegen ein Bild nicht in Pixel mit Farbwerten, um schließlich nach tausend vergeblichen Rateversuchen eine Katze zu erkennen. Es genügt, einem Menschen einmal eine Katze zu zeigen und er wird in Zukunft eine solche immer in jedem Zusammenhang mit hundertprozentiger Treffsicherheit identifizieren. Ganz gleich, ob ihm das Tier in der Realität begegnet, in einem Gemälde oder einer Fotografie, ganz unabhängig von Merkmalen wie Größe, Körperbau oder Fellfärbung. Und das gilt für jedes beliebige Objekt, wir identifizieren Lokomotiven ebenso zuverlässig wie menschliche Gesichter, Blumen oder Gebäude. Mehr noch können wir allen Objekten sofort Eigenschaften, Funktionen und Bedarfe zuordnen. Womöglich, weil wir ununterbrochen erklärende Modelle für die Existenz und die Merkmale von Dingen generieren.
Mikrochips wissen ja nicht nur nicht, was eine Katze ist oder eine Schachfigur. Sie ahnen noch nicht einmal, an einem Schachspiel beteiligt zu sein oder ein Bild zu analysieren. Sie jonglieren nur mit numerischen Werten, deren Bedeutung ihnen konstruktionsbedingt verschlossen bleibt. ChatGPT erkennt keinen Sinn und formuliert auch keinen. Die Software verwandelt eine eingehende Reihe an Zahlen (die Wörter codieren) in eine neue Zahlenfolge (die wiederum nur Wörter codiert) anhand gewisser Regeln. In denen Vorgaben wie „welche Begriffe sind mit welchen anderen Begriffen assoziativ verknüpft“ und „welche Wörter folgen in einem Satz mit welcher Wahrscheinlichkeit aufeinander“ verschlüsselt sind. Aus der Kombination mit einem Expertensystem, das grammatisch wie inhaltlich orientierte Logikentscheidungen trifft, der Integration einer nicht vollständig deterministischen Flexibilität und nach intensivem Training zur Feinabstimmung dieser Komponenten entsteht ein Apparat, der regelmäßig gut lesbare Texte ausgibt. Sollte ein menschlicher Leser in diesen Wortfolgen tatsächlich über Banalitäten hinausgehende Botschaften erkennen, so handelt es sich um einen auf die Qualität der Eingangsdaten und des Trainings zurückgehenden Zufall. Gleiches gilt für Aussagen, die nicht nur plausibel anmuten, sondern auch noch inhaltlich tadellos sind.
Wo die Regeln der Mathematik, richtig angewendet, zwingend korrekte Ergebnisse hervorbringen, ist den Regeln der Sprache die Option zu schwindeln inhärent. Deswegen kann ein schreibendes Programm nicht algorithmisch auf Faktentreue festgelegt werden. Zumal es sehr häufig einander widersprechende Quellen verarbeiten muss und selbst so einfache Dinge wie die Namensgleichheit zweier unterschiedlicher Personen prinzipiell nicht aufzulösen vermag. Wahre Aussagen darf man von einem solchen Automaten daher nicht erwarten. Es ist eher verblüffend, wenn überhaupt etwas stimmt.
KI sind in derselben rein abstrakten, auf menschgemachten Vergleichsmaßstäben beruhenden Weise „intelligent“, wie ein Automobil „leistungsstark“, ein Bildschirm „hochauflösend“ oder ein Möbelstück „stabil“. Ihr Wissen hingegen ist mit dem eines Fahrzeugs, eines Monitors oder eines Schreibtisches identisch, also gleich null. Schlechtere Voraussetzungen zur Übernahme der Weltherrschaft und der Versklavung der Menschheit sind kaum vorstellbar.
Stattdessen werden KI als überaus mächtige Werkzeuge der Datenverarbeitung unsere Lebensumstände in erheblichem Umfang verbessern. Jeder auf einer Abfolge formal definierbarer Entscheidungen basierende Prozess, in dem es keine oder nur triviale Spielräume gibt, ist mit ihrer Hilfe automatisierbar. Wo heute ein Buchhalter mit einem Computer und einer Tabellenkalkulation die Arbeit von fünfzig früher mit Papier und Bleistift arbeitenden Kollegen erledigt, wird ein Buchhalter mit einer KI wiederum fünfzig Tabellenkalkulatoren ersetzen. Das Potential zu Effizienzsteigerungen in allen Bereichen und Sektoren ist enorm, von der Fertigung von Produkten bis hin zur öffentlichen Verwaltung. Generative Wandler, die beliebige Eingaben in variable Ausgaben umsetzen („GPT“ steht für „Generative Pre-trained Transformer“), vermögen uns sogar bei kreativen Tätigkeiten zu assistieren. Erzeugen sie doch Varianten interessanter Muster (Bilder), wohlklingender Tonkombinationen (Musik) oder gefälliger Wortfolgen (Sprache), die Assoziationen induzieren und neue Impulse auslösen können.
Wer das nun regulieren möchte, lebt in dem Wahn, die Mathematik an sich behördlich kontrollieren zu können. Zumal sich in Vorstellungen, den Einsatz von KI strikt begrenzen oder gar verbieten zu müssen, weniger die Angst vor halluzinierten allmächtigen Elektronengehirnen äußert, sondern weit mehr eine Geringschätzung des Menschen selbst. Wer sagt, ChatGPT sei gefährlich, weil es Märchen erzählt, zieht die Fähigkeit seiner Mitbürger in Zweifel, mit erfundenen Geschichten umzugehen. Obwohl uns solche doch seit Beginn der Menschwerdung ununterbrochen begleiten. Wir selbst sind die talentiertesten „GPTs“, die es gibt, und darin jeder Software himmelhoch überlegen. Ein guter generativer Wandler ist aber noch lange kein effektiver Erklärer. Unsere Politiker belegen dies täglich aufs Neue.