In Michael Endes Roman „Die unendliche Geschichte“ gibt es eine Passage, in der Bastian, der Protagonist der Erzählung, auf seiner spirituellen Odyssee in die „Alte-Kaiser-Stadt“ kommt. Diese ist bewohnt von anderen ehemaligen Reisenden, welche wie er selbst auf ihren Abenteuerfahrten durch das imaginäre Reich Phantásien im Gegenzug für jeden Wunsch, den der geheimnisvolle Talisman „Auryn“ ihnen erfüllte, ein Stück ihrer Erinnerung verloren haben. Schließlich ganz ihrer Erinnerung und somit Persönlichkeit beraubt, sind sie auch unfähig geworden, sich weiter ihrer eigenen Fantasie zu bedienen, und vertreiben sich jetzt die Zeit damit, auf alle Ewigkeit hin unter der Aufsicht des sadistischen Affen Argax mit Buchstabenwürfeln zu spielen, da sie wissen, dass die Wahrscheinlichkeit es zwingend notwendig macht, dass früher oder später jede einzelne denkbare Geschichte entstehen wird.
An diese Geschichte muss ich ständig denken, wenn ich die Debatte um die sogenannte „Künstliche Intelligenz“ verfolge – nicht etwa, weil ich den tatsächlichen Fortschritt der damit zusammenhängenden Techniken unterschätzen würde, sondern weil ich mir keine Illusionen über das Zustandekommen jener Resultate mache: Wie der Buchstaben würfelnde Affe aus der „unendlichen Geschichte“ kann auch das KI-Programm nichts anderes, als das ihr zur Verfügung gestellte Material wieder und wieder zu kombinieren, ohne je zu innovieren. Freilich: Was moderne Chat- und Kunst-Programme mittlerweile dank geschickter Programmierung auf Grundlage ihrer Datenbanken hervorzubringen vermögen, ist beachtlich und wird sich im Laufe der nächsten Jahre, ja vielleicht sogar Monate noch exponentiell verbessern.
Und ja, schon jetzt besteht die Gefahr einer schrittweisen Verdrängung des Menschen auch aus vielen Bereichen, die bislang aufgrund ihrer Kreativität das natürliche Reservat des Menschen zu sein schienen. Doch noch größer scheint mir die Gefahr, die von dem Glauben ausgeht, die KI würde eines Tages ein echtes Bewusstsein ihrer selbst entwickeln und könne somit zum Partner, vielleicht sogar symbiotischen Träger menschlicher Sinnsuche werden – eine Entwicklung, die von der transhumanistischen Bewegung eifrig verfolgt wird und sich dank massiver Bewerbung auch bei vielen „fortschrittlich“ gesonnenen Menschen zunehmender Popularität erfreut oder doch wenigstens als „unausweichlich“ und „alternativlos“ betrachtet wird.
Freilich steht aber hinter jener Suggestion noch eine zweite, erheblich gefährlichere: Wer annimmt, ein Computerprogramm sei fähig, bewusst „Schönes“ zu schaffen, muss sich im Umkehrschluss der Frage stellen, inwieweit das von Menschen geschaffene „Schöne“ tatsächlich ein Alleinstellungsmerkmal der Menschheit ist, oder eben auch nur die Folge bloßer, wenn auch organisch basierter, „Algorithmen“. Diese Frage ist alles andere als abstrakt, steht doch hinter ihr der Kampf um die Definition all dessen, was den Menschen, sein Bewusstsein und, ja, auch seine Seele ausmacht.
Glaubt man den stetig mächtigeren Transhumanisten, besteht kein Grund, sich einer immer engeren Verbindung zwischen unserer Gesellschaft und der KI, ja ultimativ der (angeblichen) Übertragung des menschlichen Bewusstseins in eine virtuelle „Realität“ entgegenzustellen, da der Mensch letzten Endes eben auch nur eine Maschine unter anderen sei, dessen Selbstbewusstsein eine reine Fiktion darstelle und dessen Glauben an Transzendenz und Seele eine überholte kollektive Überlebensstrategie verberge. Dem gegenüber steht freilich der nagende Zweifel, ob der Mensch sich tatsächlich auf ein Bündel von Algorithmen reduzieren lässt und sich seine eigene Bewusstheit lediglich „einbildet“ (als ob gerade diese „Einbildung“ nicht eben genau das ist, was ihn tatsächlich zum Menschen macht!) – ein Zweifel, der seinen, wie mir scheint, überaus schlagenden Beweis im Theorem vom „Philosophischen Zombie“ gefunden hat, das sich beispielhaft in folgender, von Sue Blackmore beschriebenen Fragestellung niedergeschlagen hat:
„Stellen wir uns zum Beispiel den Zombie Sue Blackmore vor. Zombie-Sue sieht genauso aus wie ich, benimmt sich genauso wie ich, redet so wie ich über ihre privaten Erfahrungen und diskutiert wie ich über das Bewusstsein. Für einen Außenstehenden ist sie durch nichts von der echten Sue zu unterscheiden. Der Unterschied besteht allein darin, dass sie über kein Innenleben und kein bewusstes Erleben verfügt; sie ist eine Maschine, die Wörter und Verhaltensweisen produziert, während es in ihrem Inneren völlig dunkel ist. Könnte diese Zombie-Sue wirklich existieren?“ („Conversations on Consciousness“)
Mir scheint, genau dies ist eben auch das Problem hinter dem scheinbaren „Bewusstsein“ der KI: Hat ein Subjekt nur daher tatsächlich ein Bewusstsein, weil es sich genauso verhält wie andere Subjekte mit Bewusstsein?
Gerade am Beispiel der KI-Kunst wird dies ungemein deutlich, da sich zunehmend herausstellt, dass die „stilistischen“ Besonderheiten jener Kunst fast immer das Resultat von bloßen Plagiaten sind, beklagen sich doch immer mehr Maler, dass ihre online gestellten Werke von skrupellosen Programmierern einfach in die Datenbanken der KIs eingespeist wurden, um zum Rohmaterial der computergenerierten „Kunst“ umgestaltet werden zu können; teils unter Plagiat selbst individuellster künstlerischer Manierismen (sogar der Unterschriften): Was „beseelte“ Inspiration suggerieren soll, ist also nichts anderes als computergeneriertes Kopistentum in großem Maßstab – allerdings ohne die Ehrlichkeit, den „echten“ Künstler, der hinter Stil und Detailbehandlung steht, namentlich zu nennen (ein Beispiel unter vielen hier).
Die soeben dargelegten Punkte sind keine rein ästhetische oder philosophische Debatte, sondern ein fundamentales Problem, das grundlegende Auswirkungen auf die Zukunft des Menschen und seiner Gesellschaft hat.
Denn zum einen stellt sich immer drängender die Frage nach der Macht, welche wir der KI bei der Ausgestaltung unseres Alltags einräumen wollen: Überzeugt davon, dass diese mittlerweile nicht nur rein quantitative Probleme besser zusammenfassen und lösen kann als der Mensch, sondern zunehmend auch philosophische, ethische und politische Probleme, laufen wir Gefahr, unsere Zukunft einem Mechanismus anzuvertrauen, der menschliche Entscheidungsfindungen letztlich immer nur durch statistische Auswertung des vorhandenen Materials imitieren kann, nie aber zur echten Kreativität fähig ist oder so etwas wie „Verantwortung“ empfinden kann – ganz zu schweigen von der Gefahr, dass die Auswertung jenes Materials ganz von den Rahmenbedingungen der entsprechenden Programmierung abhängt und somit ohnehin niemals wirklich neutral sein kann, basiert sie doch auf den impliziten oder expliziten ideologischen Entscheidungen und Präferenzen, welche eben vom Programmierer oder Bediener getroffen wurden.
Die immer breiter beworbene Möglichkeit hingegen, den umgekehrten Weg zu beschreiten, also das menschliche Bewusstsein in eine virtuelle Welt einzuspeisen, dürfte als die ultimative Selbstvernichtung des Menschen gelten. Denn so perfekt eine KI auch fähig sein dürfte, einen Menschen zu analysieren und dann täuschend ähnlich bis in seine kleinsten Gedankengänge und Manierismen abzubilden, dürfen wir doch nie vergessen, dass es sich eben nur um eine bloße Abbildung handelt, die über genauso viel echtes Selbstbewusstsein verfügt wie jene armseligen Automaten des 18. Jahrhunderts, welche die höfische Gesellschaft des Ancien Régime mit dem Einschenken heißer Schokolade oder dem Spielen des Cembalo entzückten.
Mag ein Programm also auch den Eindruck erwecken, Erinnerung und Bewusstsein eines in den Computer migrierten Menschen konserviert zu haben, der seine Existenz in einem angeblich „unbeschränkten“ virtuellen Raum intensiver und lebendiger denn je ausleben kann: Wir dürfen doch nie vergessen, dass es sich eben nicht um eine Kontinuität, sondern eine bloße Imitation handelt, da der echte Prozess der Migration des menschlichen Bewusstseins mit dem Ablegen der letzten Reste organischer Identität eben auch den Schnitt zwischen beiden Daseinsweisen vollzieht: Ebensowenig, wie wir als Einzelner irgendeinen Vorteil davon hätten, dass irgendwo auf der Welt unser exakter Klon geschaffen würde, da unser eigenes Bewusstsein eben an unseren jetzigen, hiesigen Körper gebunden ist, würde es uns etwas bringen, dass eine uns perfekt imitierende virtuelle Monstrosität hervorgebracht würde, mit der wir uns irgendwie „verbinden“.
Doch ist zu fürchten, dass viele Menschen in ihrem Streben nach Unsterblichkeit und Allmacht von jener Illusion verblendet werden und tatsächlich der Versuchung erliegen könnten, ihr Bewusstsein in die virtuelle Realität zu übertragen – ein Prozess, dessen „Erfolg“ viele Mitmenschen wohl auch Glauben schenken würden, da der auf Grundlage der Ausgangsperson erstellte Algorithmus logischerweise alles bestätigen würde, was die besorgten Hinterbliebenen zu hören wünschen. Am Ende stünde dann möglicherweise gar die grausige Vorstellung einer Erde, deren Menschheit sich aus Naivität wie Hybris freiwillig selbst ausgelöscht hat, während ein seelen- und letztlich hirnloser Computer ein Programm laufen lässt, in dem sich perfekte Nachbildungen jener ausgestorbenen Menschen eines scheinbar paradiesischen Zustands erfreuen, den sie in Wahrheit freilich ebensowenig bewusst genießen können wie NPC-Figuren die Landschaft des Computerspiels, in dem sie sich bewegen: Die „virtuelle“ Menschheit als hirn-, sinn- und bewusstloses Marionettenspiel, hinter dem sich immer deutlicher das hämische Kichern des Teufels vernehmen lassen würde …
Eine englische Version dieses Textes erschien auf: https://tvpworld.com/65942227/brave-new-world-artificial-intelligence-art-and-the-human-being