Veranstaltung
17:35
-
18:15
Tag 2
Der Mythos der „gezielten Tötung”. Zur Verantwortung von KI-gestützten Zielsystemen am Beispiel „Lavender“
aufgezeichnet
Das Lavender-KI-Zielsystem zeigt gut, wie Kriegsautomatisierung aktuell aussieht und was daran falsch läuft.

Das Thema „KI in der Militärtechnik“ und die Beziehung zwischen Mensch und Maschine ist seit Jahrzehnten ein theoretisches Thema in der Philosophie, den Sozialwissenschaften und den kritischen Algorithmus-Studien. Doch in den letzten Jahren wurden Waffensysteme mit KI-Komponenten entwickelt und jüngst in bewaffneten Konflikten praktisch eingesetzt. Am Beispiel des KI-gestützten Zielwahlsystem Lavender, das vom israelischen Militär IDF im derzeit laufenden Gaza-Krieg eingesetzt wird, werden die aktuellen Entwicklungen aufgezeigt und in den historisch-technischen Kontext der „Signature Strikes“ der USA in Waziristan (Pakistan) oder Afghanistan gesetzt, sowie konkrete technische Designentscheidungen vorgestellt und kritisch diskutiert. Dabei entstehen auch Fragen von Verantwortungsverlagerung und Rechtsumgehung.

Empirische Grundlage für die Betrachtung ist eine Investigativrecherche mit dem Titel „‚Lavender‘: The AI machine directing Israel's bombing spree in Gaza“ von Yuval Abraham, veröffentlicht im April 2024 in den bekannten israelischen Medien „+972“ und „Local Call “. Grundlage des Reports sind Aussagen von Mitarbeiter:innen und Soldat:innen der IDF. Darin enthüllt Abraham ein KI-basiertes Kommando-, Kontroll- und Entscheidungsunterstützungssystem, das von den IDF zur Identifizierung von Kämpfern Hamas und des Islamischen Dschihad verwendet wird, um Tötungslisten zu erstellen. Aufgrund der KI-typischen heuristischen Natur der Ergebnisse waren etwa 10 % der vorgeschlagenen Ziele Zivilist:innen. Andererseits wurden pro Ziel 15-100 getötete Zivilist:innen als Kollateralschaden eingepreist. Nach Zeugenaussagen werden die Zielpersonen dann nachts zu Hause angegriffen, wenn die ganze Familie anwesend ist. Im Juni 2024 hat das internationale Journalist:innennetzwerk „forbidden stories“ in seiner Studie „The Gaza Project“ gezeigt, dass auch Journalist:innen und Medienschaffende auf solche Listen gesetzt wurden.

Auch wenn das Label „KI-basiert“ oftmals Modernität suggerieren soll, trifft das Bild einer „schmutzigen Bombe“ oder Splitterbombe viel besser die eigentliche Funktionsweise dieser Systeme. Die Verwendung dieser Bilder als Metaphern fangen die ungenauen heuristischen Eigenschaften gut ein und ermöglichen es, konkrete Fragen von Verantwortung innerhalb der militärischen Hierarchie zu stellen, die über die Betrachtung der Individuen auf dem Schlachtfeld hinausgehen. Der Vortrag zielt darauf ab, die technische und öffentliche Debatte über Verantwortung in der Mensch-Maschine-Interaktion im Zusammenhang KI-gestützter Waffensysteme voranzutreiben.

Die hier vorgestellten Erkenntnisse beruhen auf einer gemeinsamen Analyse von Expert:innen des Forums InformatikerInnen für Frieden und Gesellschaftliche Verantwortung (FIfF e.V.) zusammen mit der Informationsstelle Militarisierung (IMI e.V.) und der Arbeitskreis gegen bewaffnete Drohnen e.V., die die Praxis der KI-basierten „gezielten Tötung“ wie etwa durch Lavender als Kriegsverbrechen zu ächten sucht.