Noch in diesem Jahr möchte die Bundesregierung eine „Strategie Künstliche Intelligenz“ vorlegen. Erste Eckpunkte dazu hat sie vor einigen Wochen veröffentlicht. Bestrebt sei sie, „KI in sämtlichen Politikfeldern aktiv mitzugestalten“, heißt es in diesem Papier. Ein dringend notwendiger Schritt? Ein hoffnungsfroh stimmendes Versprechen? Eine kluge Idee? Nein, ein Fluchtgrund für alle, die sich dieser Thematik verschrieben haben, ob Investoren, Unternehmer oder Entwickler. Denn erneut folgt die Politik einem „Triple A“-Ansatz, bestehend aus Ahnungslosigkeit, Angst und Anmaßung, der schon in anderen Technologiefeldern Innovationen wirkungsvoll verhindert hat.
KI – nur ein besseres Assistenzsystem?
So versteht die Bundesregierung unter künstlicher Intelligenz nicht viel mehr als ein besseres Assistenzsystem. Vergleichbar der Rechtschreibprüfung einer Textverarbeitung oder der Routenfindung eines Navigationssystems, die nur Anregungen äußern, deren Nichtbefolgung mit keinerlei Risiken verbunden ist. An allen entsprechenden Stellen atmet das Eckpunktepapier die Auffassung aus, KI-Anwendungen wären lediglich „unterstützende“ Systeme, ob für den Staat in der Verwaltung, für die Sicherheitsbehörden, in der Produktion, der Medizin, der Mobilität und im Finanzwesen. Aber das ist falsch. Für die immer schnellere Suche in immer größeren Datenbanken bedarf es keiner künstlichen Intelligenz. Mehr Rechenkraft und die weitere Optimierung herkömmlicher Algorithmen, genügen zu diesem Zweck völlig. Das wahre Potential neuronaler Netze ist ein ganz anderes.
Ihre Verwendung wird sich nicht darauf begrenzen lassen, ausschließlich Empfehlungen auszusprechen, über die man dann in einer der politisch so beliebten Ethikkommissionen lange sinniert. Nein, künstliche Intelligenzen werden Entscheidungen treffen, schnell, unbeirrt und kompromisslos. Sie werden dem Arzt nicht lediglich bei der Diagnose helfen, sondern gleich die Therapie festlegen und gegebenenfalls den Roboter steuern, der operiert. Man wird sich nicht damit begnügen, sie nur mit der Erstellung von Prognosen über Börsentrends zu beschäftigen. Man wird sie dafür einsetzen, völlig autonom Aktien zu kaufen oder abzustoßen, um damit Spekulationsgewinne zu erzielen und Kurse zu beeinflussen. Und sie werden einem Fahrzeugführer nicht höflich raten, die Geschwindigkeit zu verringern, sondern einfach bremsen und die vollständige Kontrolle über das Vehikel übernehmen, sofern sie diese nicht vorher schon hatten.
Künstliche Intelligenzen entlasten uns schlicht von der Notwendigkeit, ständig selbst eingreifen zu müssen. Sie befreien uns von langweiligen Routinetätigkeiten ebenso wie von der nervenaufreibenden Suche nach geeigneten Handlungsoptionen in riskanten und gefährlichen Situationen, in denen biologische Gehirne zu Fehlern neigen. Wer sich davor ängstigt, findet allerdings bei unserer Bundesregierung Gehör, fürchtet sie sich doch sehr vor dem, was da kommt.
Regulierung – in welchem Rahmen und Ausmaß?
Deswegen kündigt sie mit wohlklingenden Gemeinplätzen eine umfassende Regulierung an, die jeden Fortschritt im Keim ersticken kann. „Verantwortungsvoll“ sei KI zu nutzen, was bedeutet, Anbieter und Anwender von KI-Systemen „für ethische und rechtliche Grenzen zu sensibilisieren“. Weil man aber ahnt, mit bloßen Appellen allein kaum jemanden zum Verzicht auf neue Möglichkeiten bewegen zu können, wird flugs die Schaffung eines „Ordnungsrahmens für ein hohes Maß an Rechtssicherheit“ angedroht. Um eine Technologie, die wie kaum eine zweite die individuelle Souveränität zu stärken vermag, im Sinne kollektivistischer Interessen zu kastrieren. Nichts anderes verbirgt sich hinter der Kaskade gängiger Euphemismen wie Gemeinwohl- und Werteorientierung, Nachhaltigkeit, Sozialverträglichkeit oder Nichtdiskriminierung, denen sich KI-Anwendungen nach Auffassung der Bundesregierung zu unterwerfen hätten. Selbst für den Klima- und Umweltschutz erwartet man Beiträge. Was eigentlich nur bedeuten kann, den Betrieb neuronaler Netze an strenge Energiesparauflagen zu binden. Oder hofft man tatsächlich, wie es eine Formulierung auf der dritten Seite des Papiers zumindest nahelegt, die Bürger mittels KI zu politisch korrekten Anlegern und Konsumenten umerziehen zu können?
Damit auch alles innerhalb dieser administrativ vorgegebenen Leitplanken verbleibt, möchte die Bundesregierung gerne selbst bestimmen, wo KI-Applikationen zu welchen Zwecken entstehen. Nämlich in staatlich subventionierten und damit lenkbaren Forschungseinrichtungen. Sie möchte gerne steuern, wie die so erzielten Resultate in die Wirtschaft überführt werden. Nämlich durch einen staatlich organisierten und damit kontrollierbaren Transferprozess. Und sie weiß, wie man diesen Ablauf stark genug bremst, damit der Gesetzgeber mit seinen Ge- und Verboten auch schnell genug hinterherkommt. Nämlich durch die Einbeziehung zahlreicher nationaler und supranationaler Gremien, von der Datenethikkommission über Einrichtungen zur Technikfolgenabschätzung bis hin zur EU und zur OECD. Wo sich dann Unmengen an Bürokraten in aller Gelassenheit allen aufkommenden Fragen unabhängig von deren Sinnhaftigkeit annehmen, um endlose Bleiwüsten zu erzeugen, die zwar niemand liest, die aber trotzdem jedes Fortkommen verzögern. Eine bewährte Vorgehensweise, die auch schon auf Gebieten wie der Nuklear- oder der Gentechnik dabei geholfen hat, sich von der Fortschrittsdynamik im Rest der Welt abzukoppeln.
„AI made in Germany“
Ohnehin verkommt das von der Bundesregierung angekündigte Gütesiegel „AI made in Germany“ zur Lachnummer, da sie allen Ernstes zur Sicherstellung der oben beschriebenen Ansprüche verlangt, KI-Algorithmen hätten kontrollierbar und transparent zu sein, um die Pfade, auf denen sie zu Ergebnissen gelangen, nachvollziehen zu können. Dabei ist es doch gerade der besondere Vorteil selbstlernender Systeme, nicht einem vorgegebenen Lösungsweg zu folgen, sondern sich diesen eigenständig anzueignen. Dadurch erst vermögen sie komplexe Fragestellungen zu bearbeiten, deren Abbildung mit konventionellen Softwarekonzepten nicht möglich ist. Natürlich weiß dann hinterher niemand zu sagen, wie denn eine KI ihr Ergebnis erzielt hat. Zumal sich zwei verschiedene KI-Systeme, selbst wenn sie mit denselben Daten für dieselbe Aufgabe angelernt werden, durchaus unterschiedlicher Herangehensweisen bedienen können. KI ahmt in gewisser Hinsicht menschliche Intuition nach, oder besser gesagt: durch Training erworbene gedankliche Automatismen. Und so wenig man die Details solcher Prozesse in biologischen Gehirnen zu durchschauen vermag, so wenig wird dies auch bei mächtigen neuronalen Netzwerken möglich sein. Was sich die Bundesregierung unter Künstlicher Intelligenz vorstellt, hat mit dem tatsächlichen Charakter dieser Technologie nichts zu tun.
Ohne Daten ist keine funktionsfähige KI möglich
Darum ist es ihr auch nicht peinlich, eine „europäische Antwort“ auf „datenbasierte Geschäftsmodelle“ zu fordern. Obwohl es doch keine anderen als eben „datenbasierte“ KI-Applikationen geben kann. Darum traut sie sich auch ohne jede Scham, ausgerechnet die Datenschutz-Grundverordnung (DSGVO) als geeignete Rahmensetzung für KI-Anwendungen zu loben und gleich noch eine „überarbeitete“ E-Privacy-Verordnung als zusätzliche Zukunftsbremse anzupreisen. Obwohl es doch gerade die hiesigen Datenschutz-Irrwege sind, die der Entwicklung und dem Einsatz artifizieller Intelligenz im Wege stehen. Eine Bundesregierung, die die Nutzung selbstlernender Systeme wirklich unterstützen wollte, müsste genau hier ansetzen und ein neues, den zu erwartenden Szenarien angepasstes Datenschutzrecht entwickeln. Prallen stattdessen DSGVO und KI aufeinander, gibt es Tote. Weil neuronale Netze, die wegen ausufernder Regulierungen nicht ausreichend geübt sind und außerdem nicht über alle einsatzrelevanten Informationen verfügen, Fehler begehen werden. Die sich, man denke an die Steuerung von Fahrzeugen, an die Energieversorgung oder an medizinische Behandlungen, fatal auswirken können.
Deutschland solle „zum weltweit führenden Standort für KI werden“, schreibt die Bundesregierung. Aber meint sie das wirklich ernst? Freiräume für eine effektive und konstruktive Entfaltung von Automaten mit kognitiven Fähigkeiten schafft sie mit den angedachten Maßnahmen jedenfalls nicht. Ihr Hauptaugenmerk liegt stattdessen darauf, im Sinne des Vorsorgeprinzips zu agieren und „veränderungsbedingte Risiken“ zu minimieren. Was natürlich dann optimal gelingt, wenn man die Veränderungen, die künstliche Intelligenzen in allen Bereichen mit sich bringen, gar nicht erst zulässt.