Nachricht des Monats, 2018 / 3, 15.06.2018

Wie gefährlich ist „Künstliche Intelligenz“?


Lange Zeit wurde „Künstliche Intelligenz“ (KI) nahezu ausschließlich in Science-Fiction-Filmen und Romanen thematisiert. So etwa in „2001: Eine Odyssee im Weltall“ (1968), „Blade Runner“ (1982), „Matrix“ (1999), „A.I. – Künstliche Intelligenz“ (2001), „Her“ (2013), „Transcendence“ (2014), oder „Ex Machina“ (2015).Inzwischen werden Chancen und Risiken von KI auch ausführlich in Sachbüchern wie „Menschheit 2.0.: Die Singularität naht“ von Ray Kurzweil (Lola Books, 2014), „Superintelligenz – Szenarien einer kommenden Revolution“ von Nick Bostrom (Suhrkamp, 2016) oder „Leben 3.0 – Mensch sein im Zeitalter künstlicher Intelligenz“ von Max Tegmark (Ullstein, 2017) sowie in den Wirtschaftsteilen und Feuilletons überregionaler Tages- und Wochenzeitungen diskutiert.

Dabei lassen sich bislang mehrere, oft parallel geführte Diskurse identifizieren: Die gewaltigen Umwälzungen, zu denen der Einsatz KI in der Wirtschaft führen könnte. Eine Debatte, die mitunter auch unter dem Stichwort „Digitalisierung 4.0“ geführt wird. Sie reicht von der Ersetzung von Schalterpersonal in Banken, Hotels und Reisebüros durch sprachfähige Softwareprogramme oder Roboter, den Wegfall ganzer Berufsgruppen wie Taxi- und Bus- und Fernfahrer, Lokführer oder sogar Piloten, die von autonomen Transportmitteln abgelöst werden könnten, bis hin zum Teilersatz von Ärzten und Pflegepersonal im Gesundheitswesen durch den Einsatz maschineller OP-Assistenten, Diagnoseprogramme oder Pflegeroboter.

Leidenschaftlich diskutiert wird auch die Entwicklung KI-gesteuerter, halb- oder vollautonomer Waffensysteme. Kritiker fürchten, dass künftig anstelle von Menschen solche Systeme selbständig entscheiden, wer oder was ein geeignetes militärisches Ziel darstellt und diese eigenständig bekämpfen. 2015 forderten 1.000 Wissenschaftler und Unternehmer, darunter der inzwischen verstorbene Physiker Stephen Hawking, Apple-Mitbegründer Steve Wozniak und Tesla Motors-Gründer ElonMusk, in einem Offenen Brief ein Verbot sogenannter Killerroboter.[i] In dem Schreiben, das mittlerweile von 3.978 KI-Forschern und 22.541 weiteren Personen unterzeichnet wurde, wird vor einem neuen Wettrüsten und der unkontrollierten Verbreitung autonomer Waffensysteme gewarnt: „Wenn irgendeine größere Militärmacht die Entwicklung von KI-Waffen vorantreibt, ist ein globales Wettrüsten praktisch unvermeidlich, und der Endpunkt dieser technologischen Entwicklung ist offensichtlich: autonome Waffen werden die Kalaschnikows von morgen werden.“ Anders als Atomwaffen benötigten sie „keine teuren oder schwer zu beschaffenden Rohstoffe“. Es sei daher nur „eine Frage der Zeit“, bis sie „auf dem Schwarzmarkt“ erhältlich seien und „Terroristen“, „Diktatoren“ und „Warlords“ in die Hände fielen, die die Bevölkerung „besser kontrollieren“ oder „ethnische Säuberungen“ durchführen wollten. „Autonome Waffen eignen sich ideal für Aufgaben wie Attentate, der Destabilisierung von Nationen, die Unterdrückung von Bevölkerungen und das selektive Töten einer bestimmten ethnischen Gruppe.“[ii]

Im vergangenen Jahr wandten sich 116 Unternehmer in einer ähnlichen Aktion an die Vereinten Nationen. Unter ihn Mustafa Suleyman, Mitgründer und Leiter des britischen KI-Unternehmens „Deep Mind“, das vom US-Konzern Google gekauft wurde. In dem Schreiben fordern die KI-Firmenchefs autonome Waffensysteme auf die seit 1983 existierende Liste verbotener konventioneller Waffen zu setzen.[iii] Mit der Entwicklung autonomer Waffensysteme drohe nach der Erfindung des Schwarzpulvers und der Atombombe nicht weniger als eine „dritte Revolution der Kriegsführung“. „Wenn diese Büchse der Pandora einmal geöffnet ist, wird es schwierig, sie wieder zu schließen“, heißt es in dem Schreiben“.[iv]

Der dritte große Diskurs betrifft die Frage, wie groß die Gefahr ist, das künftige KI den Menschen einmal in jeder Hinsicht überflügelt. Dass diese Frage überhaupt aufgeworfen werden konnte, liegt an den enormen Fortschritten, die die KI-Forschung in den letzten Jahren mit der Entwicklung von neuronalen Netzen und sogenanntem „Deep learning“ gemacht hat. In künstlichen neuronalen Netzen, die der Architektur des menschlichen Gehirns nachempfunden sind, werden Informationen in verschiedenen Schichten und Hierarchiestufen verarbeitet. Anders als bei der traditionellen Programmierung, bei der ein Programmierer einem Computer Schritt für Schritt vorgibt, welche Anweisungen von ihm ausgeführt werden sollen, wird der KI beim sogenannten „Deep Learning“ lediglich ein Ziel vorgegebenen, das erreicht werden soll. Auch wenn die KI nach Ansicht nahezu aller Experten, noch nicht einmal den Kinderschuhen entwachsen ist, kann sie doch schon beeindruckende Ergebnisse vorweisen.

Im Frühjahr 2016 schlug das von der Google-Tochter „Deep Mind“ entwickelte Programm „AlphaGo“ den Südkoreaner Lee Sedol, der als einer der weltbesten Go-Spieler gilt. Go ist ein chinesisches Strategiespiel, bei dem die Spieler abwechselnd schwarze und weiße Steine auf einem Brett platzieren. Ziel ist es, durch das Legen geeigneter Formationen am Ende ein möglichst großes Gebiet des Spielfeldes zu beherrschen, wobei Steine des Gegners eingeschlossen werden können. Aufgrund des größeren Spielfeldes und dem daraus resultierenden Vielfachen möglicher Positionen gilt Go als ungleich komplexer als Schach. Im Winter 2017 präsentierte Deep Mind unter dem Namen AlphaGo Zero eine neue Entwicklungsstufe von AlphaGo. Diese hatten die Entwickler erstmals ausschließlich mit den Regeln des Spiels ausgestattet. Zugfolgen von Partien, die Menschen gespielt hatten, wurden dem Programm vorenthalten. Nachdem es drei Tage lang gegen sich selbst gespielt und so „Erfahrungen“ gesammelt hatte, schlug AlphaGo Zero seine frühere Version in 100 Partien ganze einhundertmal.[v]

So faszinierend die Vorstellung sein mag, wozu eine mit zunehmender Rechenleistung, den Kinderschuhen entwachsende KI künftig alles in der Lage sein wird, die Diskurse über Zukünfte, in denen Künstliche Intelligenzen die Macht auf Erden übernehmen und die Menschen wahlweise ausrotten, versklaven oder aber mit Missachtung strafen, weil sie das Universum für weit spannender als die Erde halten, haftet zugleich etwas Naives an. Denn vorausgesetzt wird in solchen Szenarien stets, dass KI-Programme ein Bewusstsein entwickeln werden, das es ihnen ermöglicht, von ihrer eigenen Existenz zu wissen, sich als von ihrer Umwelt verschieden wahrzunehmen, sich Ziele zu setzen und mit eigener Willenskraft zu verfolgen. Das aber ist nicht abzusehen. Der Mensch bleibt Mensch. Er sieht mehr Wirklichkeiten, auch metaphysische. Er wird also wahrscheinlich weniger intelligent sein als KI, aber dafür klüger. Das allerdings leider ohne Garantie für den einzelnen.

 


[i]Autonomous Weapons: An Open Letter from AI &Robotics Researchers. https://futureoflife.org/open-letter-autonomous-weapons Upload zuletzt am 14.6.2017.

[ii] Ebenda.

[iii] Vgl. Übereinkommen über das Verbot bestimmter konventioneller Waffen, die übermäßige Leiden verursachen oder unterschiedslos wirken können. https://www.unog.ch/80256EE600585943/%28httpPages%29/4F0DEF093B4860B4C1257180004B1B30 Upload zuletzt am 14.6.2017.

[iv] An Open Letter to the United Nations Convention on certain Conventional Weapons. https://futureoflife.org/autonomous-weapons-open-letter-2017 Upload zuletzt am 14.6.2017.

[v]Vgl. Max Tegmark: Leben 3.0. Mensch sein im Zeitalter künstlicher Intelligenz. Ullstein Verlag, Berlin 2017. S.131ff.