Generative KI durchläuft momentan eine Phase exponentieller Entwicklung. Dies hat technische Gründe. So eignet sich der Transformer-Algorithmus für die parallele Prozessierung der bedeutungstragenden Einheiten („Token“) eines eingehenden Datenstroms. Statt also beispielsweise die Wörter eines Satzes seriell eines nach dem anderen zu betrachten, können alle Begriffe gleichzeitig verarbeitet werden. Dadurch lässt sich die Leistung der Systeme schon auf bereits existierender Hardware noch erheblich steigern. Gleichzeitig ist kein Sättigungseffekt zu beobachten, die Qualität der Ergebnisse von Transformern nimmt mit der Größe der eingesetzten neuronalen Netze, definiert durch die Anzahl der Neuronen, der Verbindungen zwischen ihnen und der variablen Gewichtungs- und Schwellenwerte immer weiter zu.
Gebremst wird dieser Trend allein durch das Training. Je größer ein Sprachmodell, desto größer auch der Aufwand für das maschinelle Lernen sowohl in der unüberwachten, automatisierten Stufe als auch bei der von Menschen gesteuerten Feinabstimmung. Die Anpassung von Chat-GPT4 mit seinen 1,7 Billionen Parametern auf Aufgabenstellungen der Text- und Bildverarbeitung hat mehrere Monate gedauert und dem Vernehmen nach mehr als 100 Millionen Dollar gekostet.
Man hat zwar trotz intensiver Forschungstätigkeiten immer noch keine Ahnung davon, wie unser Verstand eigentlich funktioniert. Wie beispielsweise „Bewusstsein“ entsteht, was den Menschen befähigt, abstrakte Erklärungsmodelle für die Vorgänge in seiner Umgebung zu finden (die von Aberglauben über Religion bis hin zur Quantenphysik ein breites Spektrum an Ideen widerspiegeln), was ihn überhaupt antreibt, solche aufzustellen, was intrinsische Motivationen wie Neugier, Emotionen oder Kreativität begründet oder wie sein freier Wille zustande kommt, weiß noch immer niemand zu sagen. Es ist aber mittlerweile ziemlich klar, was biologische Gehirne nicht sind. Sie sind keine Anhäufung elektronischer Schaltelemente wie Transistoren, Kondensatoren und Dioden, die man in logischen Gattern strukturiert, damit sie Daten im Binärsystem verarbeiten. Was primär einen Mechanismus der Fehlerkorrektur darstellt, damit analoge und aufgrund äußerer und innerer Einflüsse schwankende Stromstärken und Spannungen immer halbwegs sicher als logische Null oder logische Eins interpretiert werden können.
Sie sind keine getakteten Maschinen, in denen Vorgänge wie „aus dem Speicher auslesen“, „im Rechenwerk kalkulieren“ und „in den Speicher schreiben“ zeitlich klar voneinander getrennt werden müssen. Sie arbeiten nicht mit einer Gleitkommaarithmetik, die als Kompromiss die Abbildung eines großen Zahlenraums in einem begrenzten Speicher auf Kosten der Genauigkeit gestattet. Sie funktionieren nicht auf der Grundlage eines begrenzten Basisbefehlssatzes, den anzusprechen es eines im Binärcode (Maschinensprache) verfassten Programmes bedarf, das aus höheren Programmiersprachen erst durch „Compiler“ oder „Interpreter“ zu generieren ist. Es gibt schlicht keine Programmiersprache für biologische Gehirne. Gedanken und Gefühle lassen sich zwar manipulieren, aber eben nicht programmieren. Manipulation kann man abwehren oder sich aus ihr befreien, ein „Programm“ wäre eine Denkvorgabe, der sich niemand widersetzen könnte. Und der menschliche Verstand ist keine Turing-Maschine, die zwar alles berechnen kann, was überhaupt berechenbar ist, aber bei manchen Problemen nie zu einem Ergebnis gelangt. Wir können auch mit nicht-berechenbaren Vorgängen umgehen und leiden nicht unter diesem Halteproblem.
Die Vorstellung, auf Basis der Architektur, die digitale Rechenmaschinen definiert, etwas bauen zu können, das dem menschlichen Gehirn gleichkommt oder es gar übertrifft, ist seit jeher absurd. Jeder Computer kann prinzipiell durch den Menschen substituiert werden, wenn man nur ausreichend viele Rechenknechte und ausreichend Zeit dafür einsetzt. Auch alle Kalkulationen, die eine generative KI durchführt, können ebenso gut mit Papier und Bleistift erfolgen. Es würde nur sehr lange dauern, auf manuellem Weg zu einem Ergebnis zu gelangen. Computer sind den Menschen in derselben Weise überlegen, wie ein traktorgezogener Pflug einem Bauern mit einer Hacke. Bei fünfzig Bauern mit Hacken sähe das dagegen schon anders aus. Und genau wie die Landmaschine nicht weiß, was sie da eigentlich macht und warum überhaupt, weiß auch die KI nicht, worum es geht. Sie arbeitet nur mit langen Zahlenkolonnen, in die jede Eingabe verwandelt werden muss, aus denen sie neue, andere lange Zahlenkolonnen generiert, die wiederum nach definierten, von Menschen erdachten Formalismen in Buchstaben, Bildpunkte, Töne oder anderes verwandelt werden. Sie übersetzt, und zwar nicht nur von einer natürlichen Sprache in eine andere, sondern von einem digitalen Kommunikationssystem in jedes andere.
Sie kann auch Umgebungsinformationen von Kameras, Mikrofonen oder anderen Sensoren in Steuerungsbefehle für Aktoren übersetzen. Diese universelle Anwendbarkeit macht generative KI so wertvoll und bedeutend. Ihr statistischer Algorithmus „erlernt“ die Art und Weise, wie man etwas übersetzt, vom menschlichen Vorbild. Wie man etwa eine schriftliche Bildbeschreibung, also die Idee eines Gemäldes oder einer Grafik, zeichnerisch umsetzt, ist ihr anhand ausreichend vieler Beispiele zu vermitteln. Und wenn schließlich die Trainingsdaten schlicht alle Kunstwerke enthalten, die Menschen jemals produziert haben (oder alle Texte, alle Kompositionen, alle Computerprogramme und so weiter), kann die KI nicht mehr besser werden. Wenn beispielsweise die Strukturen aller geschätzt 200 Millionen natürlichen Proteine entschlüsselt sind, hat AlphaFold ausgelernt. Wenn ein autonomes Auto alle realistisch möglichen Verkehrssituationen erlebt hat, ist es austrainiert. Wenn ein humanoider Roboter alle in seiner Arbeitsumgebung auftretenden Vorkommnisse registriert hat, ist er nicht weiter perfektionierbar. Abstruse und extrem unwahrscheinliche Ereignisse der Art „ein Elefant erscheint urplötzlich in der Fußgängerzone von Reykjavik“ können und müssen in diesem Zusammenhang natürlich nicht berücksichtigt werden. Und es bringt überhaupt nichts, einen generativen Transformer mit Resultaten anderer generativer Transformer zu füttern, denn diese enthalten ja keine neuen Informationen, kein neues Wissen, keine neuen Fertigkeiten.
Generative KI kann also prinzipbedingt niemals den Stand des Wissens und des Könnens übertreffen, den die Menschheit bereits erreicht hat und der damit prinzipiell ohnehin jedem Individuum zur Verfügung steht. Generative KI macht vielmehr diese aufgebaute Kompetenz für jedes Individuum einfacher verfügbar. Und das ist, was die Menschheit in eine neue Zivilisationsstufe katapultiert. Generative KI wird konstruktionsbedingt niemals den Kontext einer ihr gestellten Anfrage verstehen, also verborgene Motive oder mathematisch nicht formalisierbare Ansprüche in ihre Antwort einbeziehen. Sie ist ein Werkzeug zur Unterstützung unserer kognitiven Fertigkeiten, kein Ersatz.
Beim Schach, einer im Vergleich zur Nutzung der Schriftsprache simplen Kombinationsaufgabe für zwei Parteien mit einer digitalen, finiten Anzahl an Elementen (den Figuren und dem Brett, auf dem sie sich bewegen dürfen) und einem ebenfalls begrenztem, klar definierten Regelwerk, die keine Zufallselemente oder verdeckte Informationen enthält, ist dies bereits der Fall. Die Schachprogramme sind bereits so gut, wie sie nur sein können, lässt man ihnen die Zeit für eine Rechentiefe, die alle möglichen Zugfolgen einer gesamten Partie umfasst. Aber unter genau dieser Bedingung sind Menschen genauso gut. Schon der Vergleich zwischen IBM’s Deep Blue und dem damaligen Weltmeister Garry Kasparow in den Jahren 1996 und 1997 fand eigentlich unter höchst unfairen Bedingungen statt.
Menschliche Gehirne können sich niemals mit ihrer vollen Leistungskraft auf nur eine Aufgabe konzentrieren. Sie sind stattdessen gezwungen, zu jedem Zeitpunkt auch alle möglichen sensorischen Eindrücke zu verarbeiten, Körperfunktionen aufrechtzuerhalten und schweifen gedanklich ab. Biologische Systeme ermüden und begehen Fehler in Kalkulationen, ohne diese zu bemerken. Biologische Systeme verfügen nicht über ein perfektes Gedächtnis. Um all dies auszugleichen, müsste man dem Menschen deutlich mehr Bedenkzeit und gegebenenfalls sogar die Beratung durch andere Schachkoryphäen zugestehen. Nur dann kann er dem Rechner mit einer vergleichbaren Rechenleistung entgegentreten. Aktuelle, unter Turnierbedingungen abgehaltene Partien der besten Schachprofis, belegen das. Denn die Quote der von diesen gespielten Züge, die auch die besten Schachprogramme vollzogen hätten (sogenannte „Top-Engine-Moves“), liegt meist bei 90 Prozent oder darüber. Was natürlich auch auf das Training mit Computern und der Durchführung von Spielanalysen mit diesen zurückzuführen ist. Einmal mehr zeigt sich hier, wie KI die Menschen zu besseren kognitive Leistungen befähigt. Würde man heute fünf Großmeister in einen Raum sperren und ihnen jeweils einen Tag Bedenkzeit pro Zug einräumen, während man dem Computer nur eine Stunde zubilligt, wäre das Ergebnis völlig offen.
Dennoch hat Kasparows Niederlage auch bei intelligenten Zeitgenossen ein diffuses Gefühl der Bedrohung initiiert, das schließlich im März 2023 nach der Veröffentlichung von Chat-GPT in pure Hysterie mündete. In einen unter der Ägide des „Future of Life Institute“ (einer von Weltuntergangsängsten lebenden amerikanischen Denkfabrik) verfassten offenen Brief, den mehr als tausend prominente Entwickler, Unternehmer und Investoren aus der Digitalwirtschaft unterzeichneten. In dem allen Ernstes ein sechsmonatiges Moratorium für die Entwicklung von KI-Systemen gefordert wurde, weil von diesen katastrophale Gefahren ausgingen. Ein aus heutiger Sicht folgenloser Rohrkrepierer, der sich schlicht durch die Verbreitung von Wissen erledigte, von Erklärungen darüber, wie generative KI eigentlich funktioniert.
Innovationen werden immer nur von denjenigen bekämpft, die sie nicht verstehen, wie es bei der Gen- und der Kerntechnik auch der Fall ist. Dabei stellt doch die Fähigkeit, Erklärungen zu finden und nachzuvollziehen, also zu verstehen, wie etwas funktioniert und warum es wichtig ist, genau das dar, was Menschen auszeichnet und Maschinen niemals können werden. Langfristig mag der bedeutendste Effekt von Künstlicher Intelligenz daher in ihrem implizit und indirekt ausgeübten Einfluss auf die Haltung des Menschen zu der von ihm geschaffenen Technik liegen. Sie verdeutlicht unsere Einzigartigkeit und zeigt auf, in welch geringem Umfang wir unsere Möglichkeiten bislang ausschöpfen, weil wir unsere Gehirne mit einfachen, leicht mechanisierbaren Aufgaben unterfordern. KI entlarvt dadurch wie keine andere fortgeschrittene Technologie die Maschinenstürmer als rückständig, verstockt und unbelehrbar.