Schon heute werden Waffensysteme von Künstlicher Intelligenz gesteuert. In Zukunft könnten autonome Waffen dem Menschen auch noch die Entscheidung abnehmen, wen sie angreifen und töten. Wer trägt die Verantwortung, wenn Computer gegen das Völkerrecht verstoßen?
Mit dem Politikwissenschaftler Niklas Schörnig vom Leibniz-Institut Hessische Stiftung Friedens-und Konfliktforschung haben wir über die Kriege der Zukunft gesprochen.
NIKLAS SCHÖRNIG Die Drohnen, über die wir in Deutschland diskutieren, sind ferngesteuert und nur bei unkritischen Funktionen autonom. Für die Auswahl und Bekämpfung der Ziele macht der Computer nur Vorschläge, die der Mensch dann prüfen muss. Die Diskussion dreht sich vor allem darum, dass Drohnen sich für Szenarien eignen, die wir in Deutschland tendenziell ablehnen, gezielte Tötungen zum Beispiel. Die Debatte um autonome Waffen muss man davon scharf trennen.
Eben weil es ferngesteuerte, bewaffnete Drohnen bereits gibt. Viele Staaten haben großes Interesse, sie anzuschaffen und einzusetzen. Die Bereitschaft, sich die Argumente der Gegnerinnen und Gegner anzuhören, ist dementsprechend gering. Die Kampagne "Killer Roboter stoppen" des Internationalen Komitees für die Kontrolle autonomer Waffen, ICRAC, zielt hingegen ganz bewusst auf autonome Waffensysteme: Deren Entwicklung schreitet zwar voran, aber es gibt noch Chancen, sie bei der Waffenkonvention der Vereinten Nationen in Genf präventiv zu ächten.
[...]