Veranstaltung: | 53. Bundeskongress der Grünen Jugend |
---|---|
Tagesordnungspunkt: | V – Verschiedene Anträge |
Status: | Beschluss |
Beschluss durch: | Bundesmitgliederversammlung |
Beschlossen am: | 03.11.2019 |
Eingereicht: | 03.11.2019, 15:15 |
Antragshistorie: | Version 1 |
Stop Killer Robots – Autonome Waffensysteme verhindern und weltweit ächten
Beschlusstext
Neue Waffentechnologien haben die Kriegsführung in der Vergangenheit oft
verschlimmert und grausamer gemacht. Das gilt insbesondere für die Entwicklung
von Massenvernichtungswaffen. Heute stehen wir wieder am Anfang einer neuen
folgenschweren Entwicklung. Die Entwicklungen in der Informationstechnologie und
der „Künstlichen Intelligenz“ (KI) machen auch vor Waffen und einer
militärischen Nutzung nicht halt. Mit den richtigen Regeln und klaren Grenzen
gibt es zwar Bereiche, wie das vollautonome Minenräumen, mit potentiellen
Chancen für die Sicherheitspolitik, es droht aber gleichzeitig eine
Kriegsführung, in der Algorithmen über Leben und Tod entscheiden.
Die Forschung an solchen vollautonomen Waffensystemen, so genannten Lethal
Autonomous Weapon Systems (LAWS) findet bereits statt. Sie ist finanziell gut
ausgestattet und verläuft in rasanter Geschwindigkeit. Es ist drei vor zwölf, da
einige Länder in Einzelfällen bereits Systeme in Betrieb nehmen. In Kürze droht,
dass in vielen Streitkräften autonome Waffensysteme eine zentrale Rolle
einnehmen. LAWS werden sich aufgrund der auf Sekundenbruchteile minimierten
Reaktionszeit nur mit anderen LAWS bekämpfen lassen, so dass wir ein massives,
ungebremstes Wettrüsten befürchten. Viele Staaten sehen sich daher bereits in
einem Sicherheitsdilemma, wenn sie sich diesem Trend entziehen. Diese Situation
ist vergleichbar mit ABC-Waffen, wo Lösungen (bei Chemie und Bio-Waffen)
ausschließlich durch eine vertragsbasierte Ächtung möglich waren. Die
Verbreitung autonomer Waffentechnologien droht die Hemmschwelle für einen
Gewalteinsatz weiter zu senken. Durch die Geschwindigkeit von Aktion und
Reaktion zwischen LAWS wächst die Gefahr, dass sich konventionelle Konflikte
ausweiten und eskalieren. Aber auch der Einsatz von Atomwaffen kann
wahrscheinlicher werden, wenn ihr Einsatz durch autonome Systeme ausgelöst
werden kann. Außerdem könnten autonome Waffensysteme auch zu Grenzkontrollen, in
der Polizeiarbeit oder gegen Demonstrationen eingesetzt werden.
Durch den Einsatz autonomer Waffensysteme kämen viele dringende politische,
ethische, völkerrechtliche und praktische Fragen und Probleme auf uns zu. Schon
heute strukturieren Computer Entscheidungen von Soldat*innen vor. Die Zahl der
Funktionen, die Waffensysteme bereits automatisch oder auch autonom ausführen
können, nimmt kontinuierlich zu. Sie erkennen anhand von Parametern mögliche
Ziele oder gesuchte Objekte. Die letztendliche Entscheidung über den Einsatz
tödlicher Gewalt muss aber beim Menschen bleiben. Deshalb stellen wir uns einer
schleichenden Abgabe der menschlichen Verantwortung klar entgegen und wollen das
humanitäre Völkerrecht stärken.
Automatisierte Abläufe – ob durch Technik oder durch Befehlsketten – können
ungewollt folgenschwere Eskalationsdynamiken in Gang setzen. Menschen haben
ethische Grundsätze, die weit über die rechtlichen Rahmenbedingungen
hinausreichen. Sie können auf ihr Gewissen hören. Sie können Gnade walten lassen
und sich im Zweifel für das Leben entscheiden. So gab es in den letzten
Jahrzehnten mehrere Situationen, in denen menschliches Zögern und nochmaliges
Überprüfen eine Eskalation verhinderten. Autonome Waffensysteme verstehen jedoch
nicht, was es bedeutet, einen Menschen zu töten. Sie verfügen über kein
Gewissen, keine ethischen Grundsätze oder über eine mit der menschlichen
Intelligenz vergleichbare Entscheidungskompetenz. Für sie ist auch das
menschliche Leben nur ein Datenpunkt. Die Entscheidung zu töten darf niemals
durch Algorithmen getroffen werden. Wird ein Mensch zum Objekt einer
maschinellen Entscheidung, wird er damit in seiner Menschenwürde verletzt.
Wir halten den Einsatz von autonomen Waffen für unvereinbar mit dem humanitären
Völkerrecht. Maschinen können nicht die Verhältnismäßigkeit oder die
Notwendigkeit eines Angriffs beurteilen. Der Einsatz von autonomen Waffen
verstieße daher gegen das völkerrechtliche Gebot zur Verhinderung übermäßigen
Leidens. Maschinen können auch nicht zuverlässig zwischen Kämpfer*innen und
Zivilist*innen unterschieden. Darüber hinaus wäre unklar, wer in Fällen
unkontrollierter oder fehlerhafter Entscheidungen durch künstliche Intelligenz
die Verantwortung übernehmen würde oder übernehmen muss. Durch die technische
Komplexität von robotischen Systemen werden Streitkräfte in Zukunft noch
abhängiger von privaten Unternehmen. Der Einfluss ziviler Unternehmen, vor allem
ziviler Programmierer, auf die militärischen Anwendungen wächst. Wer stünde bei
von LAWS begangenen Massakern, Kriegsverbrechen oder anderen dramatischen
Aktionen vor Gericht? Sicherlich nicht der*die Hersteller*in der Hardware,
der*die Softwareentwickler*in oder auch einfach die Armeeführung oder das
Verteidigungsministerium als solches. LAWS würden jahrelange Bemühungen zur
Verrechtlichung des Krieges, der Rechenschaftspflicht von Angehörigen der
Streitkräfte und der ausgeübten militärischen Gewalt ins Leere laufen lassen.
Wir als GRÜNE JUGEND fordern daher ein weltweites präventives Verbot und eine
völkerrechtliche Ächtung letaler autonomer Waffensysteme sowie die Festlegung
eines Mindestmaßes an menschlicher Kontrolle (meaningful human control) bei
jeder Entscheidung über Leben und Tod. Union und SPD haben sich zwei Mal in
Folge in ihren Koalitionsverträgen von 2013 und 2018 für eine Ächtung letaler
autonomer Waffensysteme ausgesprochen. Auf europäischem und internationalen
Parkett waren entsprechende Initiativen der Bundesregierung entweder nicht
vorhanden, oder sie kamen zögerlich und hatten zunächst die Absicht eine
rechtliche bindende Ächtung durch eine rein deklaratorische Politik
aufzuweichen. Mittlerweile hat sich die Gruppe der Regierungsexperten bei den
Verhandlungen im UN-Rahmen auf Prinzipien (guiding principles) verständigt und
die Absicht bekundet, ein „Rahmenwerk“ (operative and normative framework) zu
entwickeln. Dies kann jedoch nur ein erster Schritt sein, hin zu einem
völkerrechtlichen Verbot. Ziel muss die internationale Ächtung vollautonomer
Waffen sein. Genau daran muss sich diese Initiative messen lassen.
Im Europäischen Parlament haben Bündnis 90/Die Grünen bereits im Herbst 2018
eine Entschließung mit entsprechender Botschaft initiiert, die von einer
überwältigenden Mehrheit von 566 Abgeordneten unterstützt wurde (1). Mit diesem
Schwung ist es dann Anfang 2019 gelungen, in zähen Verhandlungen mit Rat und
Kommission, autonome Waffensysteme aus dem 13 Milliarden Euro schweren
Europäischen Verteidigungsfond auszuschließen (2). In der EU-Verordnung zum
Verteidigungsfond steht damit (wohl weltweit einmalig) eine gesetzlich
verankerte Definition samt Verbot dieser neuen Technologie (3). Auch die
parlamentarische Versammlung der OSZE hat sich im Juli 2019 für eine
völkerrechtliche Ächtung von LAWS ausgesprochen. Ebenfalls mahnt der UN-
Generalsekretär Zurückhaltung bei der Entwicklung neuer Technologien an, solange
deren Vereinbarkeit mit dem humanitären Völkerrecht fraglich ist (4).
Für die von uns geforderte Ächtung von letalen autonomen Waffensystemen gibt es
eine breite Allianz. Pax Christi, Human Rights Watch, Amnesty International, das
Internationale Komitee vom Roten Kreuz, die Gesellschaft für Informatik (GI) und
der Bundesverband der Deutschen Industrie (BDI) unterstützen eine
völkerrechtliche Ächtung von LAWS. Bereits im Juli 2015 haben mehr als 3000
Forscher der Fachrichtungen Künstliche Intelligenz und Robotik einen offenen
Brief, der die Ächtung von Killerrobotern fordert, unterzeichnet (5). Am 21.
August 2017 haben darüber hinaus 116 Gründer*innen führender Unternehmen der
Robotik und der künstlichen Intelligenz einen ähnlichen Brief an die UN
geschickt, darunter namenhafte Firmeninhaber*innen aus Silicon Valley (6). Von
besonderer Bedeutung sind in diesem Zusammenhang die im Frühjahr 2019
beschlossenen Ethik-Leitlinien für künstliche Intelligenz der von der
Europäischen Kommission eingesetzten hochrangigen Expert*innengruppe, die sich
mit Blick auf Killerroboter (Paragraph 134) uneingeschränkt hinter die Forderung
des Europäischen Parlaments nach einem Verbot stellt.
Um mit der rasanten technologischen Entwicklung Schritt halten zu können, ist
daher dringend sofortiges politisches Handeln geboten:
- Unser Ziel ist die weltweite, völkerrechtliche Ächtung von LAWS.
Deutschland und die EU müssen auf Ebene der Vereinten Nationen (VN) im
Rahmen der Certain Conventional Weapons (CCW) Verhandlungen klar für ein
Verbot dieser Waffen aussprechen, auf einen verbindlichen Verbotsvertrag
drängen und diesen Prozess zügig vorantreiben. Dabei müssen verbindliche
Mindeststandards wirksamer menschlicher Kontrolle definiert werden.
- Voraussetzung dafür ist eine klare Position der Bundesregierung, die
erreichte Verhandlungsziele mitträgt und sich endlich wie Österreich,
Brasilien, Chile, Mexiko, oder auch Belgien, Irland und Luxemburg
unzweideutig für einen Verbotsvertrag einsetzt.
- Eine weitere Voraussetzung für eine effektive internationale Ächtung ist
die Erstellung einer formalen und rechtlich bindenden gemeinsamen EU-
Position (Gemeinsame Aktion), die nach Innen dazu führt, dass, solange
kein internationaler Verbotsvertrag besteht, bei dem die EU-
Mitgliedstaaten Vertragsparteien sind, ein Moratorium bezüglich Einsatz
und Export von LAWS verhängt wird; für die internationale Ebene muss diese
Position das Verhandlungsziel eines Verbotsvertrages explizit festlegen.
Durch die Einigung beim Europäischen Verteidigungsfond haben die 28
Mitgliedstaaten sowohl eine Definition von LAWS, als auch die Idee des
Verbotes akzeptiert.
- Es braucht ähnlich wie beim Nuklearen Nichtverbreitungsvertrag (NVV) eine
Organisation, die die Entwicklung von KI im militärischen Bereich
kontrolliert. Nur ein wirksames Verifikationsregime wird die Entwicklung
auch langfristig stoppen.
- Solange internationale Regelungen noch auf sich warten lassen, sollte
Deutschland ein nationales Moratorium für die Entwicklung und Beschaffung
von LAWS veranlassen. Auch die Organisation für Sicherheit und
Zusammenarbeit in Europa (OSZE) kann ein guter Rahmen für regionale
Rüstungskontrolle sein.
- Die Bundesregierung muss sich auch in der NATO für die Ächtung von LAWS
einsetzen und dort gegenüber allen Partnerstaaten deutlich machen, dass
sie keine Position unterstützen wird, die im Widerspruch zur Entschließung
des Europäischen Parlaments zu autonomen Waffensystemen (2018/2752(RSP))
steht.
- Wir wollen jegliche staatliche Förderung von Projekten ausschließen,
welche der Entwicklung oder Nutzung von LAWS dienen. Wichtig ist jedoch
auch, wie beispielsweise im Umgang mit Chemiewaffen, dass Forschung
betrieben wird, wie Menschen sich gegen die Nutzung von LAWS schützen
können.
- Bei jedem potentiell tödlichen Einsatz von KI-Algorithmen in
Waffensystemen der Bundeswehr muss volle menschliche Kontrolle, sowohl bei
der Entscheidung, als auch bei der Ausführung, gewährleistet sein.
- In Ethikkommissionen, die sich mit Fragen digitaler Entwicklungen
befassen, darf die sicherheitspolitische und militärische Ebene nicht
ausgeblendet werden.
- Als GRÜNE JUGEND unterstützen wir die Arbeit der „Campaign to Stop Killer
Robots“.
Fußnoten:
1) Entschließungsantrag des Europäischen Parlaments zu autonomen Waffensystemen:
http://www.europarl.europa.eu/doceo/document/B-8-2018-0308_DE.html
2) Entschließung des Europäischen Parlaments vom 12. September 2018 zu autonomen
Waffensystemen:
http://www.europarl.europa.eu/doceo/document/TA-8-2018-0341_DE.html
3) Artikel 11(6) EU-Verordnung:
http://www.europarl.europa.eu/doceo/document/TA-8-2019-
0430_EN.pdf
4) UN: „Securing our Common future“
https://www.un.org/disarmament/publications/more/securing-our-common-future/
5) Autonomous Weapons: An open letter from AI & Robotics Researchers:
https://futureoflife.org/open-letter-autonomous-weapons/
6) An open letter to the United Nations Convention on Certain Conventional
Weapons:
https://www.cse.unsw.edu.au/~tw/ciair//open.pdf