Keine Angst vor Künstlicher Intelligenz (KI)

Nach der Physik („Energiewende“) steht nun die Mathematik („Künstliche Intelligenz“) auf der Abschussliste von Politikern, die Angst vor Algorithmen haben. Woher diese Furcht kommt, bleibt unklar. Künstliche Intelligenzen haben ihnen das nicht erläutert, denn die erklären überhaupt nichts.

IMAGO / Silas Stein

Nur Menschen erschaffen effektive Erklärungen. Keine andere bekannte Lebensform ist dazu in der Lage. Unablässig sucht unser Gehirn nach Mechanismen, die sich zur Erläuterung des beobachteten Geschehens eignen. Und gelangt dabei zu Resultaten, die von abstrakten wissenschaftlichen Thesen bis hin zu Annahmen über den Hintergrund alltäglicher Gespräche reichen. Solche Modellvorstellungen gestatten uns ein Verständnis jenseits der Oberflächlichkeit reiner Sinneswahrnehmungen und ermöglichen langfristig planendes Vorgehen statt lediglich instinktiver Aktion. Als „effektiv“ sind Erklärungen mit einer über den konkreten Anlass hinausweisenden Wirkung anzusehen, die zusätzlich neue Optionen öffnen oder nicht berücksichtigte, mitunter noch nicht einmal registrierbare Phänomene ebenfalls umfassen. Ob wirklich stimmt, was wir uns jeweils zusammenreimen, ist dabei völlig unerheblich. Lediglich die Anwendbarkeit einer Hypothese zählt, ihre Zweckmäßigkeit hinsichtlich des angestrebten Ziels und der auf ihrer Grundlage errungene Erfolg. Selbst Irrtümer können zu positiven Ergebnissen führen und daher jede Widerlegung überdauern. Newton lag falsch, dennoch nutzen wir seine Physik noch immer.

"Weltrevolution zum Tippen nah"
Bei Illner: Wird KI uns alle auffressen?
Allein der Mensch entwickelt beschreibende Theorien für natürliche Prozesse ebenso, wie für seine eigenen Handlungen in politischen, gesellschaftlichen und ökonomischen Kontexten. Mathematik und Musik, Sprache und bildende Kunst sind Kanäle, über die wir solche Ideen mit anderen teilen. Und in aufgeklärten Umgebungen, die eine Tradition der kritischen Wissensvermehrung und den freien Austausch der Gedanken pflegen, gedeiht nicht nur eine Erklärungskultur, sondern damit zusammenhängend auch die menschliche Gemeinschaft insgesamt.

Doch ist das Erklären selbst bislang unerklärt. Wir haben keine Ahnung, wie wir das eigentlich anstellen und warum nur wir das vermögen. Als nicht hilfreich erweist sich insbesondere der Ansatz, der Antwort auf diese Frage durch die Erstellung fortgeschrittener Software näherzukommen. Künstliche Intelligenzen (KI) lehren uns lediglich, wie wenig das Generieren von Erklärungen mit messbarer Intelligenz zusammenhängt.

Zweifellos verfügen KI über außergewöhnliche, den Menschen bereits in vielen Zusammenhängen übertreffende Fähigkeiten. Da ihr Können mit prinzipiell nicht limitierten Parametern wie der Rechengeschwindigkeit, der Datenverarbeitungskapazität und dem Vorhandensein verarbeitbarer Daten steigt, werden sie uns schon bald grundsätzlich überrunden. Alles andere wäre auch überraschend, also in neuer Weise erklärungsbedürftig, würde es doch auf eine prinzipielle Begrenzung unserer bislang universell erscheinenden Schöpfungskraft hinweisen. Menschgemachte Algorithmen für das logische Deduzieren, das plausible, also probabilistische Schätzen oder das evolutionäre Optimieren dienen ja genau der exemplarischen Nachbildung biochemisch begründeter kalkulatorischer Fertigkeiten auf digitalen Rechenmaschinen. Ihre Potenz belegt einmal mehr die menschliche Brillanz in der Konstruktion ihm überlegener Apparate. ChatGPT und andere derzeit vieldiskutierte Systeme, die man vielleicht treffender als „SI“, als „Simulierte Intelligenzen“ bezeichnen sollte, stellen daher einen Grund zum Feiern dar. Anlass zu Befürchtungen bieten sie gerade nicht.

Ein Jahresvorblick:
Das Ende der schnatternden Klasse durch künstliche Intelligenz und die Unsterblichkeit
Denn Computer können nur addieren. Das allerdings rasend schnell und fehlerfrei. Es ist menschliches Genie, das Wege gefunden hat, zahlreiche intellektuelle Tätigkeiten in Rechenwegen abzubilden, die auf dem Fundament fortgesetzter Additionen ruhen. Herausforderungen, die ein vorgegebenes Ziel über die Wahl einer geeigneten Entscheidungskette aus einer zwar großen, aber begrenzten Zahl an Varianten erreichen, lassen sich schon seit geraumer Zeit mit brutaler Rechenkraft („brute force“) beherrschen. Beim Schach kann nicht verlieren, wer alle denkbaren Zugfolgen präzise in hinreichend kurzer Zeit durchgeht, um das optimale Vorgehen zu finden. Schon 1997 hatte der damalige Weltmeister Garri Kasparow gegen den auf diese Weise agierenden Supercomputer Deep Blue keine Gewinnchance mehr. Ein höchst unfairer Vergleich übrigens, da eine Maschine nicht unter den Einschränkungen biologischer Entitäten wie Müdigkeit, Ablenkung durch andere Reize und Fehleranfälligkeit leidet. Es würde ja auch niemand einen Menschen mit einer Schaufel gegen einen Bagger antreten lassen und aus dem erwartbaren Ergebnis auf den bevorstehenden Untergang der Zivilisation schließen. Waffengleichheit beim Schach hieße, einem Großmeister deutlich längere Bedenkzeit einzuräumen und die Option, sich mit anderen Koryphäen seiner Disziplin ausführlich über seinen nächsten Zug zu beraten. Das Ergebnis einer solchen Auseinandersetzung wäre dann wieder völlig offen.

Viele Fragestellungen sind aufgrund der Menge an Entscheidungsoptionen und des Umfangs der Eingangsdaten mit Brute-Force-Algorithmen kaum zu bewältigen. Hier bedarf es eleganterer, effizienterer Ansätze. Und wieder sind es menschliche Erklärer, denen es gelungen ist, so etwas wie die Erkennung von Mustern mathematisch auf das Finden von Nullstellen komplexer Funktionen zurückzuführen. Was wiederum eine zwar immer noch lange, aber letztendlich begrenzte Abfolge von Additionen erfordert. Nichts anderes leisten neuronale Netzwerke, sie berechnen die Nullstellen gigantisch großer Polynome, um Go zu spielen oder Bildmotive zu analysieren.

Mit menschlichem Denken hat das nichts zu tun. Wir zerlegen ein Bild nicht in Pixel mit Farbwerten, um schließlich nach tausend vergeblichen Rateversuchen eine Katze zu erkennen. Es genügt, einem Menschen einmal eine Katze zu zeigen und er wird in Zukunft eine solche immer in jedem Zusammenhang mit hundertprozentiger Treffsicherheit identifizieren. Ganz gleich, ob ihm das Tier in der Realität begegnet, in einem Gemälde oder einer Fotografie, ganz unabhängig von Merkmalen wie Größe, Körperbau oder Fellfärbung. Und das gilt für jedes beliebige Objekt, wir identifizieren Lokomotiven ebenso zuverlässig wie menschliche Gesichter, Blumen oder Gebäude. Mehr noch können wir allen Objekten sofort Eigenschaften, Funktionen und Bedarfe zuordnen. Womöglich, weil wir ununterbrochen erklärende Modelle für die Existenz und die Merkmale von Dingen generieren.

Künstliche Intelligenz
Ethikrat und Bundesdatenschutz debattieren Blockade von ChatGPT
Konventionelle Intelligenztests berücksichtigen diese Fertigkeit nicht. Sie prüfen lediglich das kognitive Leistungsvermögen anhand unterschiedlicher Aufgaben, die unter anderem logisches und mathematisches Denken, Sprachverständnis, räumliches Vorstellungsvermögen, Erinnerungsvermögen, erworbenes Wissen und Allgemeinbildung abfragen. In fast jedem dieser Aspekte schneiden KI bereits jetzt besser ab als menschliche Probanden. Geeignet programmierte Computer werden also in naher Zukunft schwindelerregend hohe Intelligenzquotienten erzielen und müssen daher rein formal als „intelligent“ bezeichnet werden. Denken können sie dennoch nicht.

Mikrochips wissen ja nicht nur nicht, was eine Katze ist oder eine Schachfigur. Sie ahnen noch nicht einmal, an einem Schachspiel beteiligt zu sein oder ein Bild zu analysieren. Sie jonglieren nur mit numerischen Werten, deren Bedeutung ihnen konstruktionsbedingt verschlossen bleibt. ChatGPT erkennt keinen Sinn und formuliert auch keinen. Die Software verwandelt eine eingehende Reihe an Zahlen (die Wörter codieren) in eine neue Zahlenfolge (die wiederum nur Wörter codiert) anhand gewisser Regeln. In denen Vorgaben wie „welche Begriffe sind mit welchen anderen Begriffen assoziativ verknüpft“ und „welche Wörter folgen in einem Satz mit welcher Wahrscheinlichkeit aufeinander“ verschlüsselt sind. Aus der Kombination mit einem Expertensystem, das grammatisch wie inhaltlich orientierte Logikentscheidungen trifft, der Integration einer nicht vollständig deterministischen Flexibilität und nach intensivem Training zur Feinabstimmung dieser Komponenten entsteht ein Apparat, der regelmäßig gut lesbare Texte ausgibt. Sollte ein menschlicher Leser in diesen Wortfolgen tatsächlich über Banalitäten hinausgehende Botschaften erkennen, so handelt es sich um einen auf die Qualität der Eingangsdaten und des Trainings zurückgehenden Zufall. Gleiches gilt für Aussagen, die nicht nur plausibel anmuten, sondern auch noch inhaltlich tadellos sind.

Wo die Regeln der Mathematik, richtig angewendet, zwingend korrekte Ergebnisse hervorbringen, ist den Regeln der Sprache die Option zu schwindeln inhärent. Deswegen kann ein schreibendes Programm nicht algorithmisch auf Faktentreue festgelegt werden. Zumal es sehr häufig einander widersprechende Quellen verarbeiten muss und selbst so einfache Dinge wie die Namensgleichheit zweier unterschiedlicher Personen prinzipiell nicht aufzulösen vermag. Wahre Aussagen darf man von einem solchen Automaten daher nicht erwarten. Es ist eher verblüffend, wenn überhaupt etwas stimmt.

Fortschrittsbremse
Grüne: Rückwärts immer, vorwärts nimmer
ChatGPT repräsentiert eine von Menschen entwickelte, mathematische Erklärung des Wesens der Schriftsprache. Eine nicht besonders effektive Erklärung, denn Menschen verfassen Texte anders. Wir beginnen mit dem auszudrückenden Sinn und suchen von diesem abhängig nach passenden, kontextgeeigneten Formulierungen. Argumentative Stringenz und ästhetische Gestaltung stehen am Ende dieses Prozesses und nicht schon an seinem Beginn. ChatGPT hingegen weiß nichts über Bedeutung, Botschaft und Rezeption, weil es keine Ahnung von dem Kontext seiner Berechnungen hat. Und gleicht darin nicht nur allen anderen Künstlichen Intelligenzen, sondern überhaupt allen anderen künstlichen Artefakten.

KI sind in derselben rein abstrakten, auf menschgemachten Vergleichsmaßstäben beruhenden Weise „intelligent“, wie ein Automobil „leistungsstark“, ein Bildschirm „hochauflösend“ oder ein Möbelstück „stabil“. Ihr Wissen hingegen ist mit dem eines Fahrzeugs, eines Monitors oder eines Schreibtisches identisch, also gleich null. Schlechtere Voraussetzungen zur Übernahme der Weltherrschaft und der Versklavung der Menschheit sind kaum vorstellbar.

Stattdessen werden KI als überaus mächtige Werkzeuge der Datenverarbeitung unsere Lebensumstände in erheblichem Umfang verbessern. Jeder auf einer Abfolge formal definierbarer Entscheidungen basierende Prozess, in dem es keine oder nur triviale Spielräume gibt, ist mit ihrer Hilfe automatisierbar. Wo heute ein Buchhalter mit einem Computer und einer Tabellenkalkulation die Arbeit von fünfzig früher mit Papier und Bleistift arbeitenden Kollegen erledigt, wird ein Buchhalter mit einer KI wiederum fünfzig Tabellenkalkulatoren ersetzen. Das Potential zu Effizienzsteigerungen in allen Bereichen und Sektoren ist enorm, von der Fertigung von Produkten bis hin zur öffentlichen Verwaltung. Generative Wandler, die beliebige Eingaben in variable Ausgaben umsetzen („GPT“ steht für „Generative Pre-trained Transformer“), vermögen uns sogar bei kreativen Tätigkeiten zu assistieren. Erzeugen sie doch Varianten interessanter Muster (Bilder), wohlklingender Tonkombinationen (Musik) oder gefälliger Wortfolgen (Sprache), die Assoziationen induzieren und neue Impulse auslösen können.

Wer das nun regulieren möchte, lebt in dem Wahn, die Mathematik an sich behördlich kontrollieren zu können. Zumal sich in Vorstellungen, den Einsatz von KI strikt begrenzen oder gar verbieten zu müssen, weniger die Angst vor halluzinierten allmächtigen Elektronengehirnen äußert, sondern weit mehr eine Geringschätzung des Menschen selbst. Wer sagt, ChatGPT sei gefährlich, weil es Märchen erzählt, zieht die Fähigkeit seiner Mitbürger in Zweifel, mit erfundenen Geschichten umzugehen. Obwohl uns solche doch seit Beginn der Menschwerdung ununterbrochen begleiten. Wir selbst sind die talentiertesten „GPTs“, die es gibt, und darin jeder Software himmelhoch überlegen. Ein guter generativer Wandler ist aber noch lange kein effektiver Erklärer. Unsere Politiker belegen dies täglich aufs Neue.


Unterstützung
oder

Kommentare ( 35 )

Liebe Leser!

Wir sind dankbar für Ihre Kommentare und schätzen Ihre aktive Beteiligung sehr. Ihre Zuschriften können auch als eigene Beiträge auf der Site erscheinen oder in unserer Monatszeitschrift „Tichys Einblick“.
Bitte entwerten Sie Ihre Argumente nicht durch Unterstellungen, Verunglimpfungen oder inakzeptable Worte und Links. Solche Texte schalten wir nicht frei. Ihre Kommentare werden moderiert, da die juristische Verantwortung bei TE liegt. Bitte verstehen Sie, dass die Moderation zwischen Mitternacht und morgens Pause macht und es, je nach Aufkommen, zu zeitlichen Verzögerungen kommen kann. Vielen Dank für Ihr Verständnis. Hinweis

35 Comments
neuste
älteste beste Bewertung
Inline Feedbacks
Alle Kommentare ansehen
J.Thielemann
1 Jahr her

Ein Computerprogramm, dass z.B. alle Arten Flächen berechnen soll, läuft immer gleich, wenn es einmal ausgetestet ist. Es berechnet super gleich am Anfang alles richtig, bis auf „nicht rechtwinklige“ Dreiecke? Sie finden im Programm punktuell und nachvollziehbar den Fehler- hier: A= a*b/2. Bei einem neuronalen Netz gibt es das so nicht. Die Neuronen des Netzes werden durch „Trainieren“ mit Parametern belegt, das Netz „angelernt“. Sie haben dann z.B. Wichtungen und Offsets – die sie auch „ansehen“ können- aber kein Programm im klassischen Sinn. Es gab mal einen Fall, da sollte eine KI Brückenbilder in Fußgängerbrücken und Fahrzeugbrücken sortieren. Beim Anlernen… Mehr

LiKoDe
1 Jahr her

Kybernetisch funktionierende Simulierte Intelligenz [KI] hat eben kein Bewusstsein seiner selbst und der Welt. Aufgrund kybernetisch funktionierender SI sind natürlich mit ihr ’sich selbst steuernde‘ Abläufe möglich, was menschliche Arbeit ersetzen kann und wird. SI ist also der nächste Schritt nach Mechanisierung, Maschinisierung und Automatisierung von (Produktions-)abläufen. ‚Erzieht‘ man gleichzeitig Menschen so, dass sie sich ’normgerecht‘ verhalten und in diese Welt nahtlos einfügen, entsteht der Eindruck, als herrsche Simulierte Intelligenz über Menschen. Dabei sind es Auftraggeber und Verwender Simulierter Intelligenz, die Vorgaben machen und damit Menschen lenken und beherrschen.

horrex
1 Jahr her
Antworten an  LiKoDe

Die Fähigkeit des Menschen sich auch(!) „nicht-normgerecht“ zu verhalten produziert – neben selbstverständlich viel „Schrott“ – d a s was man als Kreativiät (oder Intelligenz?) bezeichnet. –
Und, dreifach unterstreichenswert:
Wichtig zu erkennen, dass es Auftraggeber und Verwender Simulierter Intelligenz sind, die Vorgaben machen und damit Menschen lenken und beherrschen. – Somit die größten Gefahren die grundsätzlich in jedem menschlichen Werkzeug – vom Faustkeil bis zur Atom-Spaltung – liegen!!! –

Julischka
1 Jahr her

Durch den Genderwahn bin ich mir meines Gegenüber nicht mehr sicher, Mann oder Frau? Künftig kann man sich seines Gegenüber nicht mehr sicher sein, Mensch oder Maschine? Diese Vorstellung finde ich gruselig!

Matthias F.
1 Jahr her

Bei der KI geht es aber nicht nur darum, Texte zur Unterhaltung zu schreiben oder Bilder zu malen. Man sollte sich der Risiken durchaus bewusst sein, ohne alles von vornherein als notwendiges Werkzeug schönzureden. Es dauert nicht mehr lange, dann wird die KI Politik machen, die KI wird entscheidungen treffen. Wenn der Staat will, dass der Bürger dies nicht durchschaut, wird er es auch nicht durchschauen. Oder er wird von der KI beseitigt. Nur als anschauliches Beispiel: der Terminator war damals reine Fiktion. Für die Wirklichkeit unerreichbare Fantasie. Wo stehen wir heute? Schaut euch Boston Dynamics an. Wir sehen, in… Mehr

Walter Eiden
1 Jahr her

Man sollte mal die Menschen in Hiroshima und Nakasaki fragen wie sie zur lebenserleichternden und Möglichkeiten auftuenden Erfindung der Kernspaltung stehen. Was die Menschheit heute über KI weiß ist für die Entwickler und die Drahtzieher dieser Welt bereits Schnee von gestern. (Im Übrigen die selben Drahtzieher die schon Impfstoffe entwickelten bevor das passende Virus dazu die Welt eroberte) Begrüßenswerter Weise beschäftigt sich TE immer mehr mit der Transformation der Welt, dem great reset, der neuen Weltordnung. Zu glauben dass KI dazu nicht auf manipulierende Weise genutzt wird entbehrt nicht einer gewissen Naivität. Vielleicht wird sie ja bereits tag täglich angewendet… Mehr

Knackfloh Goe
1 Jahr her

Die KIs die wir Heute sehen sind besser technische Hilfsmittel. Was hinter verschlossenen Türen geschieht wissen wir nicht. Wenn die KI die KI programmiert wird „die Maschine“ nach der Entscheidungsgewalt fragen. Die Wissenschaft sagt klar: NEIN! Doch der Kommerz wird wird sagen: Das braucht „Sie“ um uns zu dienen! Wenn die KI entscheiden hat zu „(über)leben“ sitzen drei am Tisch: Mensch, Natur und „die Maschine“. Und wir können nicht sicher sein, dass „die Maschine“ auf unser Seite ist. Sie wird in unseren IT-System „(über)leben“ wie ein Virus. Wann wird es soweit sein? Noch vor 2030, laut den Wissenschaftlern:inen aus den… Mehr

Julischka
1 Jahr her

Was machen demnächst 10 Milliarden Menschen auf diesem Planeten, wenn ihr Leben mehr und mehr durch künstliche Intelligenz ersetzt wird?

Menkfiedle
1 Jahr her

Lieber Herr Heller, Sie unterschätzen das Wesen und die Potenziale zukünftiger KI ganz grundsätzlich. 1.- Ein menschliches Gehirn funktioniert nicht anders als ein Supercomputer (bzw. umgekehrt). Ein Supercomputer mit Zugang zu einem Datenspeicher, der alle Informationen, (auch zu „menschlichen“ Regungen wie Gefühle, Emotionen etc.) enthält, die ein durchschnittlicher Mensch zur Verfügung hat, wird diesem bereits beim Tempo und in der Treffsicherheit weit überlegen sein. Und nun stellen Sie sich vor, dieser Computer hat Zugang zum kompletten Wissen und aller Information der Menschheit in Echtzeit. Das wird bei Problemstellungen zu Problemlösungen des Computers führen, die wir nicht verstehen, wir werden diese… Mehr

Last edited 1 Jahr her by Menkfiedle
EigeneAnsicht
1 Jahr her

Ich glaube der Artikel unterschätzt, was KI bereits leistet – und im Moment sind noch keine Grenzen absehbar. Der Artikel überschätzt auch, was Menschen an Inzelligenzarbeit leisten. Letztlich bildet das beides „nur“ eine komplexe äußere Realität in inneren Strukturen nach. Es erscheint durchaus real, dass in vielleicht nur wenigen Jahrzehnten Menschen sich lieber mit einer KI austauschen als mit anderen Menschen – gerade auch über schwierige Themen. Weil die KI besser Zusammenhänge sieht und besser auf das Gegenüber eingeht. Nur als ein Beispiel. Vielleicht kommt soetwas nie, aber im Moment muss man eher damit rechnen, dass das irgendwann kommt. Das… Mehr

Schmidtrotluff
1 Jahr her

Der Zauberer braucht immer neue Kaninchen im Hut. Alle sollen auf ihn schauen, während im Dunkeln das Unsichtbare passiert.
Die Handlanger des Bösen drehen jedes Rad, ob KI, Industrie 4.0, Klima, Gender, Insekten, Attentate ….
Das Thema ist egal, solange alle in Angststarre verfallen.
KI ist als Unsinn Weltklasse. Darin müssen wir führend werden, sagten die Gehirnamputierten.