Die Killer-Roboter sind hier! Krisen als Treibstoff für präventive Rüstungskontrollnormen  

Im Rahmen des Forums „Krise und Normkontestation“ veröffentlichen wir einen Beitrag von Berenike Prem.

Staaten handeln selten vorausschauend. Es bedarf häufig einer Krise, um ein Problembewusstsein zu schaffen, bestehende Normen infrage zu stellen und die Suche nach neuen Normen zu fördern. Der Stellenwert von Krisen für Prozesse der Normkontestation und Genese macht deutlich, vor welchen Herausforderungen Akteure gestellt sind, die antizipative Normen etablieren oder bestehende Normen „fit“ für die Zukunft machen wollen. Diese Normen sind wirksam, noch bevor sich Krisen voll zu entfalten scheinen. Funktioniert Normkontestation also auch ohne Krisen? Dieser Beitrag beleuchtet die Bedeutung von Krisen als endogenem Faktor in Normdynamiken und zeigt, wie sie durch vorausschauende Praktiken visuell, narrativ und performativ konstruiert werden, um normative Veränderungen anzustoßen. Diese Annahmen werden am Beispiel präventiver Rüstungskontrollnormen für neue Waffentechnologien (autonome Waffensysteme) diskutiert. 

Krisen und Schocks wird in der IB-Forschung häufig eine katalytische Rolle in Normdynamiken zugeschrieben. Wie auch der Beitrag von Holzscheiter et al. zeigt, können Akteure durch erfolgreiche Rahmung von Ereignissen als Krisen, Raum für neue Denk- und Handlungsweisen eröffnen, bestehende Normen infrage stellen und/oder die Suche nach neuen Normen befördern. Wenn von Krisen die Rede ist, werden dabei vor allem große, weltgeschichtliche Ereignisse wie Kriege, Depressionen oder das Ende des Kalten Krieges in den Blick genommen. Sie zählen zu den „exogenen Faktoren“ für normative Veränderungen – also jenen Faktoren, die das soziopolitische Umfeld betreffen, in das Normen eingebettet sind. Damit entziehen sie sich weithin der Verfügungsgewalt von Akteuren in Normdynamiken. Krisen „passieren“ Akteuren, bieten die Möglichkeit („windows of opportunities“) für strategisches framing, Kontestation und Veränderung (oder vorenthalten diese Chancen), sind aber selbst nicht Teil von Aushandlungsprozessen. Krisen sind in dieser Sichtweise also paradoxerweise ausgenommen von der Annahme, dass Agency zentral für die Genese, Aufrechterhaltung oder Veränderung von Normen ist.  

Dieser Beitrag lädt dazu ein, Krisen nicht nur als extern gegeben zu betrachten, sondern als einen endogenen Faktor in Normdynamiken. Krisen bezeichnen wahrgenommene Abweichungen von einem Normal- und Sollzustand. Unter dem Begriff werden damit gemeinhin pathologische oder anomische Ereignisse oder Verhaltensweisen gefasst, die den „normalen“ Gang der Dinge „stören“ oder unterbrechen. Wenn wir diese Definition zugrunde legen, zeigt sich der endogene Charakter von Krisen in zweierlei Hinsicht. Erstens hängt die Wahrnehmung davon, was eine Krise ist, letztlich von unserem Verständnis von „normal“/“wünschenswert“ bzw. umgekehrt von „anormal”/“unerwünscht“ ab. Dieses Verständnis wird maßgeblich von den in einer (nationalen oder internationalen) Gemeinschaft vorherrschenden Normen geprägt – verstanden als „collective expectations about proper behaviour for a given identity“ (Jepperson et al. 1996: 54). Sie dienen als Maßstab für das Vorhandensein einer Krise und erlauben es den Mitgliedern dieser Gemeinschaft, Krisen „zu sehen“. Welche Normen aber in einem spezifischen Kontext Gültigkeit besitzen, ob und wie sie anzuwenden sind, ist oft umstritten. Damit ist das Vorhandensein einer Krise selbst Aushandlungssache. Im Falle autonomer Waffensystemen herrscht z.B. nach wie vor Uneinigkeit, ob oder inwiefern bestehende Normen (z.B. humanitäres Völkerrecht) auf diese Systeme anzuwenden sind oder ob es gänzlich neuer Normen bedarf, um diese Waffensysteme zu regulieren. Fehlt ein solch normativer Kompass, steht auch die kollektive Krisenzuschreibung infrage. 

Zweitens ist oft strittig, welche Ereignisse oder welche Entwicklungen die Klassifizierung (bzw. Wahrnehmung) als Krise rechtfertigen. Welches Ausmaß muss ein Ereignis annehmen, um in den Augen der Betroffenen den Schwellenwert der Krisenhaftigkeit zu erreichen, der ihn über den Bereich des „Normalen“ und „Wünschenswerten trägt? Diese Frage stellt sich in verschärfter Form, wenn wir uns mit Normen befassen, die antizipative (vorausschauende) Elemente haben. Antizipative Normen sind wirksam, noch bevor sich Probleme voll entfalten und deren Konsequenzen unmittelbar erfahr- und messbar sind. Prozesse antizipativer Normgenese, Kontestation und Veränderung spielen sich damit unterhalb des „Radars“ der konventionellen Normenforschung ab. Das trifft im besonderen Maße auf technologische Innovationen und neue Militärtechnologien zu, die meist größeren Schocks vorausgehen. Es gibt (noch) keine Opferzahlen und keine Bilder des Leids, die diese Waffensysteme erzeugen. Die scheinbare Abwesenheit einer Krise stellt damit insbesondere solche Akteure vor neuen Herausforderungen, die antizipative Normen etablieren oder bestehende Normen „fit“ für die Zukunft machen wollen: Wie können „Normunternehmer“ Entscheidungsträger und die Öffentlichkeit von der Notwendigkeit solcher Veränderungen überzeugen? 

Im Falle antizipativer Normen bedarf es vorausschauender Praktiken, um zukünftige Krisen zu vergegenwärtigen und (visuell, narrativ oder performativ) sichtbar zu machen. Diese Annahmen lassen sich am Beispiel der Regulierung autonomer Waffensysteme gut veranschaulichen. Seit fast zehn Jahren werden autonome Waffensysteme im Rahmen der UN-Konvention über bestimmte konventionelle Waffen (CCW) diskutiert; 2017 wurde eigens eine UN-Expertengruppe zu autonomen Waffensystemen (GGE on LAWS) mandatiert, die potentiellen Folgen des Einsatzes autonomer Waffensysteme und Möglichkeiten ihrer Regulierung zu erörtern (kein Verhandlungsmandat). Bei autonomen Waffensystemen handelt es sich um Systeme, die auf Grundlage von Sensoren und algorithmischen Verarbeitungsprozessen Ziele ohne menschliches Handeln auswählen und angreifen können. Einige AWS werden bereits für bestimmte Aufgaben unter eng definierten Bedingungen eingesetzt (Luftabwehrsysteme, loitering munition, bestimmte Raketen), jedoch gehen die meisten Staaten davon aus, dass „vollständig“ autonome Waffensysteme sich von diesen „Vorgängersystemen“ qualitativ unterscheiden werden und damit noch der Zukunft angehören. Aktivist*innen bedienen sich verschiedener Strategien, um trotz fehlender unmittelbarer Erfahrung mit autonomen Waffensystemen und ihren (potentiell) desaströsen Auswirkungen die Krisenhaftigkeit des Themas und die Dringlichkeit eines Verbotes autonomer Waffensystemen zu verdeutlichen.  

Imaginative Praktiken: Slaughterbots 

Imaginative Praktiken sind die wohl geläufigste Methode, um ein Krisenbewusstsein zu schaffen. Es handelt sich dabei um „Was-wenn“-Erzählungen oder Gedankenexperimente, in denen fiktive Szenarien des Einsatzes autonomer Waffensysteme durchdacht werden. Dazu zählt etwa die sehr detaillierte Beschreibung der katastrophalen Folgen, die sich ergeben, wenn es Entscheidungsträgern nicht gelingt „Killerroboter zu stoppen“. Diese Konsequenzen werden beispielsweise in fiktiven Filmen wie Slaughterbots geschildert. Der erste Slaughterbots-Film wurde 2017 vom Future of Life Institute (FLI) produziert und erstmals im Rahmen einer von der Campaign to Stop Killer Robots (KRC) veranstalteten GGE-Nebenveranstaltung gezeigt. Der Film schildert ein dystopisches Szenario, in dem Schwärme autonomer Drohnen losgeschickt werden, um US-Gesetzgeber*innen und politische Aktivist*innen zu töten. Im Fokus steht hier also die Nonproliferationsnorm und die Gefahr, dass AWS in die Hände von Terroristen gelangen könnten.  

Immersive Praktiken: Eintauchen in die Krise 

Die Krise, die in der Dokumentation Immoral Code der KRC geschildert wird, ist dagegen eine moralische: Hier geht es um die digitale Entmenschlichung durch automatisierte Entscheidungsprozesse, die am drastischsten in automatisierten Tötungsentscheidungen zutage tritt. Der dokumentarische Charakter von Immoral Code bricht klar mit der Science-Fiction-Tradition vorheriger imaginativer Praktiken und führt die Problematik autonomer Waffensysteme näher an die Lebensrealität der Zuschauer*innen heran. Die Produzent*innen haben sich dafür entschieden, „normale“ Bürger*innen in einer „sozialen Studie“ in den Film einzubeziehen. In dieser Studie werden einzelnen Personen, manchmal zusammen mit einem Freund oder Familienmitglied, auf einem Computerbildschirm Fragen von zunehmender moralischer Komplexität gestellt, die in einer groben Annäherung an den Entscheidungsbaum eines KI-Algorithmus jeweils nur mit Ja oder Nein beantwortet werden können. Zu sehen, wie diese Menschen mit Fragen über Leben und Tod ringen, zeigt die Komplexität und Subjektivität solcher Entscheidungen und wirf die Frage auf, wie solche Entscheidungen jemals in eine Maschine programmiert werden können. Das Format von Immoral Code ermöglicht es den Zuschauer*innen zugleich, sich auf ähnliche Weise wie die Studienteilnehmer*innen des Films in die Entscheidungssituation hineinzuversetzen und die moralische Krise automatisierter Tötungsentscheidungen zu erleben.  

Schließlich bieten auch Simulationen die Gelegenheit, Krisen performativ zu durchleben. Das United Nations Insitute for Disarmament Research (UNIDIR) hat in den letzten Jahren eine Reihe sog. „table top exercises“ mit Regierungs- und Militärvertreter*innen durchgeführt, um verschiedene Szenarien für den Einsatz autonomer Waffensysteme durchzuspielen. Diese Übungen sind mehr als nur kreative Spekulationen. Sie nehmen bestehende Technologien als Ausgangspunkt und laden Teilnehmer*innen dazu ein, sich vorzustellen, welche spezifischen Zukunftsszenarien problematisch sein könnten, wenn wir uns auf der Autonomie-Skala nach „oben“ bewegen und zunehmend menschliche Kontrolle über diese Waffensysteme abgeben. 

Analogien: Die Zukunft ist bereits hier 

Darüber hinaus nutzen Aktivist*innen Analogien, um Krisen zu vergegenwärtigen. Renic spricht hier von „borrowed shock“. Analoges Denken bedeutet, mögliche Auswirkungen einer neuen Technologie und die Notwendigkeit eines normativen Wandels durch die Linse bestehender Technologien und Waffen zu betrachten. Die KRC zieht beispielsweise Parallelen zwischen autonomen Waffensystemen und KI-gesteuerten Technologien zivilen Bereich, die Datensätze und Algorithmen verwenden, um neue Objekte oder Personen zu klassifizieren (Gesichtserkennungstechnologien im Polizei- und Justizwesen) oder um automatisierte Entscheidungen zu treffen (z.B. über die Vergabe von Sozialleistungen). Solche Analogien können Entscheidungsträger*innen und die Öffentlichkeit mit einem ansonsten unbekannten Thema vertraut machen, indem sie suggerieren, dass autonome Waffensysteme – angesichts ihrer Zugehörigkeit zu algorithmischen Systemen – ähnlich schädliche Auswirkungen haben werden: die Reproduktion und Verstärkung systemischer Ungleichheiten und biases 

Die hier skizzierten epistemischen Praktiken geben Hinweis darauf, wie Krisen sozial konstruiert werden können. Das bedeutet jedoch nicht, dass diese Krisen-Darstellungen von Entscheidungsträger*innen (hier: Staaten in der UN-Expertengruppe) geteilt werden, bzw. dass die Art der hier vermittelten Krisen ausreichen, um zu signalisieren, dass der bestehende normative Status quo untragbar und ein Verbot (oder Regulierung) autonomer Waffensysteme unerlässlich ist. Vielmehr steuern Staaten wie die USA und Russland, die an einer Erhaltung des Status quo interessiert sind, aktiv gegen das Krisen-Narrativ und preisen die (vermeintlich) strategischen und humanitären Vorteile von AWS an. Darin wird deutlich, dass Krisen auch immer Gewinner und Verlierer haben. Aus Sicht der Akteure, die sich für eine präventive Regulierung einsetzen, ist die heraufbeschworene Krise durchaus nützlich, um neue Denkweisen, Normen und Verhaltensweisen anzustoßen, bevor AWS in vollem Umfang eingesetzt werden. Solche Krisen können aber auch nicht-intendierte Effekte und potentielle Verlierer im „Wettkampf“ um Aufmerksamkeit und Ressourcen haben. Die aktuelle Debatte um die Risiken einer Auslöschung der Menschheit durch artificial general intelligence (AGI) zeigen dies eindrücklich. Solche Doomsday-Szenarien lenken nicht nur davon ab, dass bereits heutige KI-Systeme menschliches Leid verursachen. Sie spielen auch den Entwicklern dieser Systeme in die Hände, indem inflationäre Erwartungen an die Fähigkeiten neuer Technologien geschürt werden. 

 

Berenike Prem ist PostDoc am Institut für Internationale und Interkulturelle Studien (InIIS) der Universität Bremen, wo sie zu präventiven Rüstungskontrollnormen und neue Waffentechnologien forscht. 

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert