2508 der Beilagen zu den Stenographischen Protokollen des Nationalrates XXVII. GP

 

Bericht

des Außenpolitischen Ausschusses

über den Antrag 3923/A(E) der Abgeordneten Dr. Reinhold Lopatka, Dr. Ewa Ernst-Dziedzic, Petra Bayr, MA MLS, Dr. Susanne Fürst, Dr. Helmut Brandstätter, Kolleginnen und Kollegen betreffend Einsatz für eine internationale Regulierung von tödlichen autonomen Waffensystemen sowie Risiken im Zusammenhang mit der Integration Künstlicher Intelligenz in Nuklearwaffensysteme

Die Abgeordneten Dr. Reinhold Lopatka, Dr. Ewa Ernst-Dziedzic, Petra Bayr, MA MLS, Dr. Susanne Fürst, Dr. Helmut Brandstätter, Kolleginnen und Kollegen haben den gegenständlichen Entschließungsantrag am 28. Februar 2024 im Nationalrat eingebracht und wie folgt begründet:

„Vor dem Hintergrund des zunehmend digitalen Zeitalters spielt Künstliche Intelligenz (KI) auch in der militärischen Praxis eine immer größere - jedoch auch umstrittene - Rolle. KI-Technologien werden schon heute vom Militär zur Informationssammlung und -auswertung, zur Aufklärung und Überwachung eingesetzt, und tragen somit zur Entscheidungsfindung im militärischen Kontext bei. KI wird in Entscheidungssystemen mit dem Ziel eingesetzt, den Gegner an Schnelligkeit zu übertreffen. Es ist davon auszugehen, dass sich diese Entwicklung in den kommenden Jahren rasant verstärken wird. Der Begriff Autonome Waffensysteme bezieht sich dabei auf Systeme, welche nach ihrer Aktivierung ohne weiteren menschlichen Eingriff Ziele selbständig auswählen und angreifen können.

Auch wenn bestimmte fortgeschrittene KI-Technologien und Innovationen militärische Vorteile bringen können, so liegt es auf der Hand, dass Menschen weiterhin eine ausreichende menschliche Kontrolle („meaningful human control“) über den Einsatz von KI-gestützten Waffensystemen haben müssen, um die Vereinbarkeit mit rechtlichen Bestimmungen und ethischen Grundsätzen sicherzustellen. Das ist etwa dann der Fall, wenn es menschlichem Bedienungspersonal während der operativen Phase eines autonomen Waffensystems ermöglicht wird, insbesondere in die Zielauswahl und die Ausübung von Gewalt wirksam einzugreifen; dies beinhaltet die Entscheidung des Befehlshabers und des Einsatzleiters, ein bestimmtes Waffensystem für einen bestimmten Zweck zu verwenden, wobei diese Entscheidung auf ausreichenden Kenntnissen und Verständnis des Systems unter den gegebenen Umständen sowie auf einem angemessenen Situationsbewusstsein der Einsatzumgebung beruhen muss.

Eine ausreichende menschliche Kontrolle kann entweder über die Festlegung eines Einsatzrahmens oder die Möglichkeit, im Bedarfsfall in Entscheidungen der Waffensysteme wirksam einzugreifen, ausgeübt werden. Es darf aus rechtlichen, humanitären und ethischen Gründen nicht möglich sein, dass Algorithmen die Entscheidung über Leben und Tod ohne ausreichende menschliche Kontrolle überlassen werden. KI kann und darf niemals ein Ersatz für menschliches Urteilsvermögen sein. Eine zunehmende Automatisierung von Waffensystemen, das Risiko des Verlusts der menschlichen Kontrolle durch den Einsatz und die Verbreitung von Waffensystemen mit autonomen Funktionen werden von zahlreichen Expertinnen und Experten durch das Potential einer unbeabsichtigten Konflikteskalation als äußerst gefährliche Entwicklungen eingestuft. Hinzu kommen grundlegende ethische und moralische Bedenken, sowie aus sicherheits- und friedenspolitischer Sicht auch die Gefahren durch die Unvorhersehbarkeit im Verhalten der Waffensysteme und mögliche Fehler. Eine Voreingenommenheit von Algorithmen und datenbasierten Systemen beim Einsatz von machine-learning ist aus menschenrechtlicher Sicht bedenklich und kann zur Diskriminierung bestimmter Personengruppen führen. In diesem Zusammenhang stellt sich auch die Fragen nach der Verantwortung und Haftung für Fehler autonomer Waffensysteme.

Eine im Februar 2021 einstimmig angenommene Entschließung im österreichischen Nationalrat warnt ausdrücklich vor dieser Entwicklung und fordert ein völkerrechtliches Verbot von autonomen Waffensystemen ohne ausreichende menschliche Kontrolle.

Eine derzeit international beobachtbare und ebenfalls besorgniserregende Entwicklung ist auch die mögliche Integration von KI in Nuklearwaffensysteme mit automatisierten Befehls- und Kontrollketten, welche die Rolle des Menschen bei kritischen Entscheidungen über den Einsatz von Atomwaffen sukzessive verringern könnte und die Risiken für nukleare Eskalation und den irrtümlichen Einsatz von Nuklearwaffen signifikant erhöhen könnte.[1] Der derzeitige Konsens unter atomar bewaffneten Staaten, dass Atomwaffen nur unter menschlicher Kontrolle eingesetzt werden, wird durch Forderungen, die Bewertung und Verarbeitung von Alarmmeldungen sowie darauf aufbauende Entscheidungen zum Start von Atomraketen vorab an autonome KI-Systeme zu delegieren, zunehmend untergraben.

Die Forschung weist auf bestehende Gefahren von Fehlinterpretationen und mangelnde Zuverlässigkeit insbesondere bei Erkennen von Alarmmeldungen durch autonome KI-Systeme hin. Algorithmen, welche komplexen autonomen Systemen zugrunde liegen, bergen das Risiko, zu unberechenbar, anfällig (für Cyber-Attacken, Hackangriffe oder Sabotage) und nicht nachvollziehbar zu sein (Problem der „Black-Box“-KI Entscheidungen, was Fehlentscheidungen nicht unmittelbar erkennbar macht), weshalb eine ausreichende menschliche Kontrolle in höchst sicherheitskritischen Bereichen wie im Bereich von Nuklearwaffensysteme unabdingbar ist. So kam es in der zweiten Hälfte des 20. Jahrhunderts wiederholt zu nuklearen Beinahe-Entscheidungen, von denen viele auf Fehlinterpretationen, Einschränkungen oder technologisches Versagen zurückzuführen waren.

Diese offensichtlichen großen Risiken machen deutlich, dass die einzige sichere Vorgehensweise eine internationale Regulierung und die Sicherstellung der ausreichenden menschlichen Kontrolle, sowohl beim Einsatz von tödlichen autonomen Waffensystemen wie auch bei der KI-gestützten Unterstützung anderer kritischer Waffensysteme, wie Nuklearwaffensysteme, darstellt. Dies ist umso dringlicher, da sich das Zeitfenster für präventive Maßnahmen und eine internationale Regulierung angesichts des rasanten Fortschritts der militärtechnischen Innovationen rasch schließt und in einigen Staaten bereits konkrete Pläne für den Einsatz dieser Systeme vorliegen.

Österreich gehört international zu den Vorreitern auf diesem Gebiet und hat zuletzt im Rahmen des Ersten Komitees der VN-Generalversammlung gemeinsam mit 27 weiteren Staaten die erste Resolution[2] zu tödlichen autonomen Waffensystemen überhaupt eingebracht, welche mit 164 Ja-Stimmen im November 2023 angenommen wurde, und einen wichtigen Schritt zur Verhandlung internationaler rechtlich verbindlicher Regeln darstellt. Darüber hinaus vergrößert die zunehmende Integration von KI in Nuklearwaffensysteme das ohnehin bereits erhöhte Risiko eines nuklearen Konflikts und untermauert die Notwendigkeit eines starken und gemeinsamen Einsatzes für eine fortgesetzte nukleare Rüstungskontrolle und weitere Abrüstungsschritte, internationale Zusammenarbeit sowie Vertrauensbildung. Es gibt keine Alternative zur nuklearen Abrüstung.“

 

Der Außenpolitische Ausschuss hat den gegenständlichen Entschließungsantrag in seiner Sitzung am 22. März 2024 in Verhandlung genommen. An der Debatte beteiligten sich im Anschluss an die Ausführungen des Berichterstatters Abgeordneter Dr. Reinhold Lopatka die Abgeordneten Ing. Mag. Volker Reifenberger, Petra Bayr, MA MLS, Dr. Ewa Ernst-Dziedzic sowie der Bundesminister für europäische und internationale Angelegenheiten Mag. Alexander Schallenberg, LL.M.

 

Bei der Abstimmung wurde der gegenständliche Entschließungsantrag der Abgeordneten Dr. Reinhold Lopatka, Dr. Ewa Ernst-Dziedzic, Petra Bayr, MA MLS, Dr. Susanne Fürst, Dr. Helmut Brandstätter, Kolleginnen und Kollegen einstimmig beschlossen.

Als Ergebnis seiner Beratungen stellt der Außenpolitische Ausschuss somit den Antrag, der Nationalrat wolle die angeschlossene Entschließung annehmen.

Wien, 2024 03 22

                          Dr. Reinhold Lopatka                                                 Dr. Christoph Matznetter

                                  Berichterstattung                                                                          Obmann



[1] Siehe dazu „Assessing the Dangers: Emerging Military Technologies and Nuclear (In)Stability, Arms Control Association Report, Februar 2023, auf ACA_Report_EmergingTech_digital.pdf (armscontrol.org).

[2] Lethal autonomous weapons systems, A/C.1/78/L.56 vom 12.10.2023, verfügbar unter: N2330266.pdf (un.org).