-
13:35
Mit der raschen Entwicklung und Verbreitung von Roboterwaffen fangen Maschinen an, den Platz des Menschen auf dem Schlachtfeld einzunehmen. Einige Expertinnen aus Militär und Robotik schätzen, dass „Killerroboter" – vollständig autonome Waffen, die ganz ohne menschliches Eingreifen Ziele selektieren und angreifen können – innerhalb von 10 bis 15 Jahren entwickelt werden könnten. Aktuelle Beurteilungen des Militärs sagen aus, dass der Mensch immer eine gewisse Aufsicht über die Entscheidungen hat, tödliche Gewalt anzuwenden, jedoch lassen diese Aussagen oft die Möglichkeit offen, dass autonome Systeme eines Tages selbst die Fähigkeit haben, solche Entscheidungen aus eigener Kraft zu treffen, und somit der Mensch aus dem Entscheidungsprozess herausgenommen wird.
In diesem Zusammenhang ist es wahrscheinlich, dass autonome Systeme in naher Zukunft auch in Drohnen und Systemen zum Einsatz kommen, die auf hoher See, an Land und im Weltall autonom operieren können. Und während die Drohnentechnologie als solche keine völkerrechtlichen Probleme bereitet, ist es im Falle von autonomen Waffensystemen, bei denen Entscheidungen über Leben und Tod an Maschinen delegiert werden sollen, die Technik selbst, die grundlegende ethische und (völker-)rechtliche Fragen aufwirft.
Was sind die Technologien, die zur tödlichen Autonomie bei Waffensystemen beitragen oder beitragen könnten? In wieweit kann man sie als künstlich intelligente Systeme bezeichnen?
Mit diesen Fragen möchte sich der Vortrag beschäftigen und auch darauf eingehen, welche Gefahren damit verbunden sind, wenn der Mensch aus dem Entscheidungsprozess über Leben und Tod herausgenommen wird. Es soll veranschaulicht werden, wie es von militärischer Seite zu dieser Entwicklung kommen konnte und welche Auswirkungen dies auf den zivilen Sektor hat. Wie sich zeigen wird, ist die Entwicklung hin zu autonomen Systemen eingebettet in einen historischen Verlauf von Kontrolle, Automatisierung und Standardisierung, welche den Höhepunkt sämtlicher militärischer Entwicklungen und Wünsche darstellt. Mit hoher Wahrscheinlichkeit werden Standards im militärischen Bereich auch in den zivilen Sektor übernommen und somit sehr schnell Fakten geschaffen. Laufen wir somit Gefahr, die Definition davon, was Autonomie in Computersystemen bedeutet, an einen kleinen Kreis von Expertinnen und Verbänden zu übergeben?
Es ist an der Zeit, eine breitere Öffentlichkeit an der Diskussion der potenziellen Vorteile und Nachteile vollständig autonomer Systeme zu beteiligen und einen öffentlichen Diskurs anzustoßen, inwieweit die Zivilbevölkerung von Systemen betroffen ist, bei denen der Mensch aus dem Entscheidungsprozess herausgenommen wird. Internationale Organisationen wie „Human Rights Watch“ glauben, dass solche Waffenentwicklungen nicht mit dem internationalen humanitären Recht vereinbar sind, weil sie das Risiko zu Tod oder Verletzung von Zivilpersonen während eines bewaffneten Konfliktes erhöhen.