Änderungen von V-11 zu V-11 B
Ursprüngliche Version: | V-11 |
---|---|
Status: | Eingereicht |
Eingereicht: | 11.10.2019, 01:05 |
Neue Version: | V-11 B |
---|---|
Status: | Beschluss |
Eingereicht: | 03.11.2019, 15:15 |
Titel
Stop Killer Robots - Autonome Waffensysteme verhindern und weltweit ächten
Zu:
Stop Killer Robots – Autonome Waffensysteme verhindern und weltweit ächten
Antragstext
Von Zeile 1 bis 81:
Neue Waffentechnologien haben die Kriegsführung in der Vergangenheit oft verschlimmert undund grausamer gemacht. Das gilt insbesondere für die Entwicklung von Massenvernichtungswaffen.[Zeilenumbruch][Leerzeichen]Heute stehen wir wieder am Anfang einer neuen folgenschweren Entwicklung. Die EntwicklungenEntwicklungen in der Informationstechnologie und der „Künstlichen Intelligenz“ (KI) machen auch vor WaffenWaffen und einer militärischen Nutzung nicht halt. Mit den richtigen Regeln und klaren Grenzen gibtgibt es zwar Bereiche, wie das vollautonome Minenräumen, mit potentiellen Chancen für diedie Sicherheitspolitik, es droht aber gleichzeitig eine Kriegsführung, in der Algorithmen überüber Leben und Tod entscheiden.
Die Forschung an solchen vollautonomen Waffensystemen, so genannten Lethal AutonomousWeaponsAutonomous Weapon Systems (LAWS) findet bereits statt. Sie ist finanziell gut ausgestattet undund verläuft in rasanter Geschwindigkeit. Es ist drei vor zwölf, da einige Länder inin Einzelfällen bereits Systeme in Betrieb nehmen. In Kürze droht, dass in vielen StreitkräftenStreitkräften autonome Waffensysteme eine zentrale Rolle einnehmen. LAWS werden sich aufgrund der aufauf Sekundenbruchteile minimierten Reaktionszeit nur mit anderen LAWS bekämpfen lassen, so dassdass wir ein massives, ungebremstes Wettrüsten befürchten. Viele Staaten sehen sich daher bereitsbereits in einem Sicherheitsdilemma, wenn sie sich diesem Trend entziehen. Diese Situation istist vergleichbar mit ABC-Waffen, wo Lösungen (bei Chemie und Bio-Waffen) ausschließlich durchdurch eine vertragsbasierte Ächtung möglich waren. Die Verbreitung autonomer WaffentechnologienWaffentechnologien droht die Hemmschwelle für einen Gewalteinsatz weiter zu senken. Durch die GeschwindigkeitGeschwindigkeit von Aktion und Reaktion zwischen LAWS wächst die Gefahr, dass sich konventionelle KonflikteKonflikte ausweiten und eskalieren. Aber auch der Einsatz von Atomwaffen kann wahrscheinlicher werden,werden, wenn ihr Einsatz durch autonome Systeme ausgelöst werden kann. Außerdem könnten autonomeautonome Waffensysteme auch zu Grenzkontrollen, in der Polizeiarbeit oder gegen DemonstrationenDemonstrationen eingesetzt werden.
Durch den Einsatz autonomer Waffensysteme kämen viele dringende politische, ethische,ethische, völkerrechtliche und praktische Fragen und Probleme auf uns zu. Schon heute strukturierenstrukturieren Computer Entscheidungen von Soldat*innen vor. Die Zahl der Funktionen, die WaffensystemeWaffensysteme bereits automatisch oder auch autonom ausführen können, nimmt kontinuierlich zu. SieSie erkennen anhand von Parametern mögliche Ziele oder gesuchte Objekte. Die letztendlicheletztendliche Entscheidung über den Einsatz tödlicher Gewalt muss aber beim Menschen bleiben. DeshalbDeshalb stellen wir uns einer schleichenden Abgabe der menschlichen Verantwortung klar entgegen undund wollen das humanitäre Völkerrecht stärken.
Automatisierte Abläufe – ob durch Technik oder durch Befehlsketten – können ungewolltungewollt folgenschwere Eskalationsdynamiken in Gang setzen. Menschen haben ethische Grundsätze, diedie weit über die rechtlichen Rahmenbedingungen hinausreichen. Sie können auf ihr GewissenGewissen hören. Sie können Gnade walten lassen und sich im Zweifel für das Leben entscheiden. So gabgab es in den letzten Jahrzehnten mehrere Situationen, in denen menschliches Zögern undund nochmaliges Überprüfen eine Eskalation verhinderten. Autonome Waffensysteme verstehen jedochjedoch nicht, was es bedeutet, einen Menschen zu töten. Sie verfügen über kein Gewissen, keinekeine ethischen Grundsätze oder über eine mit der menschlichen Intelligenz vergleichbarevergleichbare Entscheidungskompetenz. Für sie ist auch das menschliche Leben nur ein Datenpunkt. DieDie Entscheidung zu töten darf niemals durch Algorithmen getroffen werden. Wird ein Mensch zumzum Objekt einer maschinellen Entscheidung, wird er damit in seiner Menschenwürde
Von Zeile 83 bis 219:
Wir halten den Einsatz von autonomen Waffen für unvereinbar mit dem humanitären Völkerrecht.[Zeilenumbruch][Leerzeichen]Maschinen können nicht die Verhältnismäßigkeit oder die Notwendigkeit eines AngriffsAngriffs beurteilen. Der Einsatz von autonomen Waffen verstieße daher gegen das völkerrechtlichevölkerrechtliche Gebot zur Verhinderung übermäßigen Leidens. Maschinen können auch nicht zuverlässig zwischenzwischen Kämpfer*innen und Zivilist*innen unterschieden. Darüber hinaus wäre unklar, wer in FällenFällen unkontrollierter oder fehlerhafter Entscheidungen durch künstliche Intelligenz diedie Verantwortung übernehmen würde oder übernehmen muss. Durch die technische Komplexität vonvon robotischen Systemen werden Streitkräfte in Zukunft noch abhängiger von privatenprivaten Unternehmen. Der Einfluss ziviler Unternehmen, vor allem ziviler Programmierer, auf diedie militärischen Anwendungen wächst. Wer stünde bei von LAWS begangenen Massakern,Massakern, Kriegsverbrechen oder anderen dramatischen Aktionen vor Gericht? Sicherlich nicht der*dieder*die Hersteller*in der Hardware, der*die Softwareentwickler*in oder auch einfach die ArmeeführungArmeeführung oder das Verteidigungsministerium als solches. LAWS würden jahrelange Bemühungen zurzur Verrechtlichung des Krieges, der Rechenschaftspflicht von Angehörigen der Streitkräfte undund der ausgeübten militärischen Gewalt ins Leere laufen lassen.
Wir als GRÜNE JUGEND fordern daher ein weltweites präventives Verbot und eine völkerrechtliche ÄchtungÄchtung letaler autonomer Waffensysteme sowie die Festlegung eines Mindestmaßes an menschlichermenschlicher Kontrolle (meaningful human control) bei jeder Entscheidung über Leben und Tod. Union undund SPD haben sich zwei Mal in Folge in ihren Koalitionsverträgen von 2013 und 2018 für eineeine Ächtung letaler autonomer Waffensysteme ausgesprochen. Auf europäischem und internationaleninternationalen Parkett waren entsprechende Initiativen der Bundesregierung entweder nicht vorhanden, oderoder sie kamen zögerlich und hatten zunächst die Absicht eine rechtliche bindende Ächtung durchdurch eine rein deklaratorische Politik aufzuweichen. Mittlerweile hat sich die Gruppe derder Regierungsexperten bei den Verhandlungen im UN-Rahmen auf Prinzipien (guiding principles)principles) verständigt und die Absicht bekundet, ein „Rahmenwerk“ (operative and normative framework)framework) zu entwickeln. Dies kann jedoch nur ein erster Schritt sein, hin zu einem völkerrechtlichenvölkerrechtlichen Verbot. Ziel muss die internationale Ächtung vollautonomer Waffen sein. Genau daran mussmuss sich diese Initiative messen lassen.
Im Europäischen Parlament haben Bündnis 90/Die Grünen bereits im Herbst 2018 eine Entschließung mitmit entsprechender Botschaft initiiert, die von einer überwältigenden Mehrheit von 566566 Abgeordneten unterstützt wurde (1). Mit diesem Schwung ist es dann Anfang 20192019 gelungen, in zähen Verhandlungen mit Rat und Kommission, autonome Waffensysteme aus dem 1313 Milliarden Euro schweren Europäischen Verteidigungsfond auszuschließen (2). In der EU-[Zeilenumbruch]Verordnung zum Verteidigungsfond steht damit (wohl weltweit einmalig) eine gesetzlichgesetzlich verankerte Definition samt Verbot dieser neuen Technologie (3). Auch die parlamentarischeparlamentarische Versammlung der OSZE hat sich im Juli 2019 für eine völkerrechtliche Ächtung von LAWSLAWS ausgesprochen. Ebenfalls mahnt der UN-Generalsekretär Zurückhaltung bei der EntwicklungEntwicklung neuer Technologien an, solange deren Vereinbarkeit mit dem humanitären Völkerrecht fraglichfraglich ist (4).
Für die von uns geforderte Ächtung von letalen autonomen Waffensystemen gibt es eine breitebreite Allianz. Pax cChristi, Human Rights Watch, Amnesty International, das Internationale KomiteeKomitee vom Roten Kreuz, die Gesellschaft für Informatik (GI) und der Bundesverband der DeutschenDeutschen Industrie (BDI) unterstützen eine völkerrechtliche Ächtung von LAWS. Bereits im Juli 20152015 haben mehr als 3000 Forscher der Fachrichtungen Künstliche Intelligenz und Robotik eineneinen offenen Brief, der die Ächtung von Killerrobotern fordert, unterzeichnet (5). Am 21. AugustAugust 2017 haben darüber hinaus 116 Gründer*innen führender Unternehmen der Robotik und derder künstlichen Intelligenz einen ähnlichen Brief an die UN geschickt, darunter namenhaftenamenhafte Firmeninhaber*innen aus Silicon Valley (6). Von besonderer Bedeutung sind in diesemdiesem Zusammenhang die im Frühjahr 2019 beschlossenen Ethik-Leitlinien für künstliche IntelligenzIntelligenz der von der Europäischen Kommission eingesetzten hochrangigen Expert*innengruppe, die sichsich mit Blick auf Killerroboter (Paragraph 134) uneingeschränkt hinter die Forderung desdes Europäischen Parlaments nach einem Verbot stellt.
Um mit der rasanten technologischen Entwicklung Schritt halten zu können, ist daher dringenddringend sofortiges politisches Handeln geboten:
- Unser Ziel ist die weltweite, völkerrechtliche Ächtung von LAWS. Deutschland und
diedie EU müssen auf Ebene der Vereinten Nationen (VN) im Rahmen der CertainConventionalConventional Weapons (CCW) Verhandlungen klar für ein Verbot dieser Waffen aussprechen, aufeineneinen verbindlichen Verbotsvertrag drängen und diesen Prozess zügig vorantreiben.DabeiDabei müssen verbindliche Mindeststandards wirksamer menschlicher Kontrolledefiniertdefiniert werden.
- Voraussetzung dafür ist eine klare Position der Bundesregierung, die
erreichteerreichte Verhandlungsziele mitträgt und sich endlich wie Österreich, Brasilien, Chile,Mexiko,Mexiko, oder auch Belgien, Irland und Luxemburg unzweideutig für einenVerbotsvertragVerbotsvertrag einsetzt.
- Eine weitere Voraussetzung für eine effektive internationale Ächtung ist
diedie Erstellung einer formalen und rechtlich bindenden gemeinsamen EU-Position(Gemeinsame(Gemeinsame Aktion), die nach Innen dazu führt, dass, solange kein internationalerVerbotsvertragVerbotsvertrag besteht, bei dem die EU-Mitgliedstaaten Vertragsparteien sind, einMoratoriumMoratorium bezüglich Einsatz und Export von LAWS verhängt wird; für die internationale Ebenemussmuss diese Position das Verhandlungsziel eines Verbotsvertrages explizit festlegen.DurchDurch die Einigung beim Europäischen Verteidigungsfond haben die 28 Mitgliedstaatensowohlsowohl eine Definition von LAWS, als auch die Idee des Verbotes akzeptiert.
- Es braucht ähnlich wie beim Nuklearen Nichtverbreitungsvertrag (NVV)
eineeine Organisation, die die Entwicklung von KI im militärischen Bereich kontrolliert.NurNur ein wirksames Verifikationsregime wird die Entwicklung auch langfristig
Von Zeile 221 bis 251:
- Solange internationale Regelungen noch auf sich warten lassen, sollte Deutschland
einein nationales Moratorium für die Entwicklung und Beschaffung von LAWS veranlassen.AuchAuch die Organisation für Sicherheit und Zusammenarbeit in Europa (OSZE) kann einguterguter Rahmen für regionale Rüstungskontrolle sein.
- Die Bundesregierung muss sich auch in der NATO für die Ächtung von LAWS einsetzen
undund dort gegenüber allen Partnerstaaten deutlich machen, dass sie keinePositionPosition unterstützen wird, die im Widerspruch zur Entschließung des Europäischen Parlamentszuzu autonomen Waffensystemen (2018/2752(RSP)) steht.
- Wir wollen jegliche staatliche Förderung von Projekten ausschließen, welche
derder Entwicklung oder Nutzung von LAWS dienen. Wichtig ist jedoch auch, wiebeispielsweisebeispielsweise im Umgang mit Chemiewaffen, dass Forschung betrieben wird, wie Menschen sich gegendiedie Nutzung von LAWS schützen können.
- Bei jedem potentiell tödlichen Einsatz von KI-Algorithmen in Waffensystemen
derder Bundeswehr muss volle menschliche Kontrolle, sowohl bei der Entscheidung, als auchbeibei der Ausführung, gewährleistet sein.
- In Ethikkommissionen, die sich mit Fragen digitaler Entwicklungen befassen, darf
diedie sicherheitspolitische und militärische Ebene nicht ausgeblendet werden.
- Als GRÜNE JUGEND unterstützen wir die Arbeit der „Campaign to Stop
KillerKiller Robots“.
Von Zeile 255 bis 259:
2) Entschließung des Europäischen Parlaments vom 12. September 2018 zu autonomenautonomen Waffensystemen:[Zeilenumbruch]
http://www.europarl.europa.eu/doceo/document/TA-8-2018-0341_DE.html
3) Artikel 11(6) EU-Verordnung:[Zeilenumbruch]
http://www.europarl.europa.eu/doceo/document/TA-8-2019-