13.57

Abgeordneter Süleyman Zorba (Grüne): Herr Präsident! Geschätzte Kolleginnen und Kollegen! Sehr verehrte Zuseherinnen und Zuseher! Herr Minister! Die Welt rüstet auf. Das ist seit dem russischen Angriffskrieg auf die Ukraine traurige Realität. Es sei eine faktische Notwendigkeit, sagen viele, es sei ein Aufrüsten für den Frieden.

Bei diesem Rüstungswahn, der auf uns zukommt, spielen auch autonome Waffensysteme eine große Rolle – auch Kriege sind vom KI-Hype nicht ausgeschlossen –: zielgenau, effizienz- und ressourcenschonend und sie geschehen ohne menschliches Zutun. Einmal aktiviert identifizieren sie autonom Ziele und führen Angriffe ohne menschliches Zutun und eben auch ohne Freigabe oder Kontrolle aus.

Was wir bei dieser vermeintlich effizienten neuen Waffenwelt aber keine Sekunde vergessen dürfen: Es sind keine Menschen, die an den Abzügen sitzen, sondern autonome Systeme, die aufgrund von Mustererkennung und Zielerkennung Menschen auch umbringen können.

Es stellen sich Fragen, die beantwortet werden müssen: Wie soll sichergestellt werden, dass KI-Waffensysteme, die auf Optimierung von Angriffen eingestellt sind und die auf das Erreichen von Kriegszielen ausgerichtet sind, sich ans Völkerrecht halten? Wie wird verhindert, dass auf aufeinander losgelassene autonome Waffensysteme sich nicht gegenseitig hochschaukeln? Wir kennen das aus dem zivilen Bereich. Es gibt KI-Systeme, wenn es um Dinge an der Börse geht. Auch da kann beobachtet werden, dass sie sich gegenseitig befeuern und hochschaukeln. Im militärischen Umfeld wäre das sehr fatal.

Autonome beziehungsweise KI-gesteuerte Waffensysteme können immer schnellere Entscheidungen in immer kürzerer Zeit treffen. Ein menschliches Nachdenken, ein Innehalten oder die Möglichkeit, dass ein Konflikt auch wieder abkühlen kann, haben keinen Raum. Denken wir an die Kubakrise 1962, als die Welt am Rande eines Abgrunds, zu einem Atomkrieg stand. Nur menschliches Zögern, Abwiegen, diplomatischer Kontakt konnten damals das Schlimmste verhindern. Wie hätte ein autonomes Waffensystem entschieden, das weder Angst noch Zögern kennt? Ich bin mir sicher, die Welt, die wir heute kennen, wäre eine andere.

Nicht nur das zu schnelle Eskalieren könnte aber eine Gefahr werden, sondern auch, dass völlig falsche Entscheidungen getroffen werden können. Kollege Reifenberger hat schon ein paar Beispiele dazu gebracht. Wir sehen auch im zivilen Bereich, dass KI-Systeme nicht fehlerlos arbeiten. Wenn es im militärischen Umfeld darum geht, KI einzusetzen, sind diese Fehler eben fatal, es geht um Menschenleben.

Mit der Entwicklung autonomer Waffensysteme wird sprichwörtlich die Büchse der Pandora geöffnet, deshalb brauchen wir eine rechtlich verbindliche internationale Regulierung, die den Einsatz tödlicher autonomer Waffensysteme regelt und in manchen Bereichen sogar verbietet.

Als jemand, der grundsätzlich viel von KI-Systemen hält und auch den Nutzen sieht, die sie für die Gesellschaft haben können, habe ich sehr große Angst, wenn es um den Einsatz im militärischen Umfeld geht; deshalb bin ich sehr froh, dass es hier einen Allparteienantrag zu diesem Thema gibt, denn die letzte Entscheidung, die absolute Verantwortung muss beim Menschen bleiben. – Danke schön. (Beifall bei den Grünen und bei Abgeordneten der ÖVP.)

14.00