118/A(E) XXVIII. GP
Eingebracht am 07.03.2025
Dieser Text wurde elektronisch übermittelt. Abweichungen vom Original sind
möglich.
Parlamentarische Materialien
ENTSCHLIESSUNGSANTRAG
der Abgeordneten David Stögmüller, Kolleginnen und Kollegen
betreffend Nationales Verbot von Vollautonomen Waffensystemen („Killer-Robotern“)
BEGRÜNDUNG
Die letzten Jahre brachten im Bereich der künstlichen Intelligenz (KI) massive Fortschritte. Doch während diese neuen Technologien große Fortschritte für das menschliche Wohlergehen versprechen, müssen sie die Bevölkerung und Gesellschaft stärken und dürfen sie nicht entmenschlichen. Eine zunehmende Rolle erhält die Anwendung von KI im Bereich der Entwicklung neuer Waffensysteme. Der russische Angriffskrieg in der Ukraine und die damit verbundene Aufrüstung treiben diesen Trend rasant voran.
Während unbemannte, bewaffnete Drohnen mittlerweile das Kriegsgeschehen signifikant mitbestimmen, ist selbst bei den ausgefeiltesten System ein Mensch an der Entscheidungsfindung beteiligt und löst Befehle zum Angriff selber aus. Es gibt zwei Stufen der Beteiligung: Bei einem "In-the-Loop"-System wählt der Computer mögliche Ziele aus und legt sie einem menschlichen Bediener vor, der dann entscheidet, was zu tun ist. Bei einem "On-the-Loop"-System hingegen teilt der Computer dem menschlichen Bediener mit, welche Ziele er zuerst auszuschalten empfiehlt. Der Mensch kann den Computer jederzeit überstimmen, aber die Maschine trifft ihre Entscheidungen viel aktiver. Der Rubikon, den es zu überschreiten gilt, ist dann erreicht, wenn das System vollständig automatisiert ist und seine eigenen Ziele ohne menschliches Eingreifen auswählt und verfolgt.
Während das von möglichen Herstellern als Vorteil verkauft wird, birgt dieses System mehrere Risiken und stellt Regierungen vor moralische, ethische, rechtliche und humanitäre Herausforderungen.
Regelmäßig versagt KI, wenn sie auf Situationen trifft, die sie nicht gelernt hat, zu interpretieren. Forscher bezeichnen unerwartete Situationen oder Ereignisse als Ausreißer, und im Krieg ist die Zahl dieser Ausreißer besonders hoch[1].
Hinzu kommt, dass KI immer mit gewissen Datensätzen programmiert wird, die fehlerhaft oder einseitig sein können. Häufig führt das zu Diskriminierung bestimmter Personengruppen oder Minderheiten, bei autonomen Waffensystemen könnte das tödliche Konsequenzen haben.
Daneben werden die Trainingsdaten und die genauen Algorithmen von Unternehmen als große Geschäftsgeheimnisse gehütet. Für politische Verantwortungsträger:innen gibt es keine Möglichkeiten herauszufinden, was genau eingekauft wird.
Die Verantwortungsfrage ist aber zentral. Wem können Fehler von autonomen Waffensystemen zugerechnet werden? Wen würde man bei unrechtsmäßigen Tötungen zur Verantwortung ziehen? Diese Fragen können bei Maschinen nicht beantwortet werden. Doch die ausreichende menschliche Kontrolle („meaningful human control") und damit auch Verantwortung ist im Bereich der Menschenrechte und im humanitären Völkerrecht zentral. So obliegt es Menschen die Verhältnismäßigkeit eines tödlichen Angriffes einzuschätzen, eine Abwägung, die nicht von einem Roboter getroffen werden kann. Auch ob das Gegenüber kampfunfähige Soldat:innen oder (unbewaffnete) Zivilist:innen sind – Umstände, die einen Angriff verbieten würden – kann von den besten Algorithmen nicht erkannt werden. Autonome Waffensysteme ohne menschliche Kontrolle könnten durch algorithmische Voreingenommenheit (der sog. „algorithmic bias") zu nicht rechtfertigbaren Diskriminierungen führen. Erschwerend tritt unter anderem noch hinzu, dass durch den Einsatz autonomer Waffensysteme ohne menschliche Kontrolle die rechtliche und politische Verantwortung und Zurechenbarkeit, auf der unser Rechtssystem beruht, nicht mehr gesichert wären.
Während Österreich auf internationaler Ebene bereits sehr engagiert für die Regulierung und das Verbot von vollautonomen Waffensystemen auftritt, könnte ein nationales Gesetz eine Vorbildwirkung haben und die österreichische Rolle im Bereich der Abrüstung und Rüstungskontrolle verstärken. Gerade in den geopolitisch herausfordernden Zeiten, in denen wir uns aktuell wiederfinden, müssen mutige Wege aufgezeigt werden.
Die unterfertigenden Abgeordneten stellen daher folgenden
ENTSCHLIESSUNGSANTRAG
Der Nationalrat wolle beschließen:
„Die Bundesregierung wird aufgefordert,
· rasch ein umfassendes nationales Gesetz zum Verbot von vollautonomen Waffensystemen, die unvorhersehbar operieren und selbstständig menschliche Ziele auswählen und bekämpfen, auszuarbeiten und dem Nationalrat vorzulegen. Das Verbot sollte sowohl Entwicklung, Besitz und Anschaffung erfassen;
· sich auf europäischer Ebene dafür einzusetzen, dass auch andere Staaten ein nationales Moratorium für vollautonome Waffensysteme erlassen;
· auf europäischer Ebene auf eine gemeinsame Ratsposition für ein umfassendes völkerrechtliches Verbot von vollautonomen Waffensystemen hinzuwirken.“
In formeller Hinsicht wird die Zuweisung an den Ausschuss für Menschenrechte und Volksanwaltschaft vorgeschlagen.
[1] https://www.theguardian.com/technology/2022/nov/20/part-of-the-kill-chain-how-can-we-control-weaponised-robots