13.40

Abgeordneter Ing. Mag. Volker Reifenberger (FPÖ): Hohes Haus! Wir haben es mit einem Allparteienantrag zu tun, den ich als freiheitlicher Wehrsprecher, aber auch als Milizoffizier ausdrücklich unterstütze.

Künstliche Intelligenz ist sehr fehleranfällig, auch wenn sie in vielen Bereichen durchaus hilfreich sein kann. Sie kann leider Gottes auch sehr gefährlich sein. Der Begriff künstliche Intelligenz ist in Wahrheit falsch und irreführend, weil es sich dabei nämlich um keine Intelligenz handelt. Wenn künstliche Intelligenz autonom Waffeneinsätze herbeiführt, dann ist das brandgefährlich, umso mehr, wenn es sich dabei vielleicht um Atomwaffen handeln sollte.

Ich möchte den Zuschauern nur zwei banale Beispiele geben, wie künstliche Intelligenz funktionieren, aber trotzdem vollkommen versagen kann. Das erste Beispiel ist eine KI, die darauf trainiert wurde, anhand von Bildern Wölfe von Hunden zu unterscheiden. Die Trefferquote lag bei 90 Prozent. Also dachte man sich, man habe es durchaus mit einem intelligenten System zu tun. Dann haben die Forscher aber hinterfragt, wie denn die KI ihre Entscheidung trifft, ob Wolf oder Hund. Das ernüchternde Ergebnis war, dass die Forscher draufgekommen sind, dass die KI das ganze Internet nach Fotos von Hunden und von Wölfen durchforscht hat und zu einem trügerischen Fehlschluss gekommen ist. Nämlich: Wenn im Hintergrund des Tieres Schnee zu sehen ist, dann handelt es sich mit hoher Wahrscheinlichkeit um einen Wolf. Wenn im Hintergrund kein Schnee zu sehen ist, ist es mit hoher Wahrscheinlichkeit ein Hund. Auch wenn die Trefferquote mit circa 90 Prozent auf den ersten Blick durchaus beeindruckend erschien, ist diese Beurteilung, die dahinter steckt, also trotzdem vollkommen wertlos und unbrauchbar.

Ein zweites Beispiel möchte ich Ihnen aus der Hautkrebsforschung geben. Man hat wiederum eine KI trainiert, und zwar darauf, bösartige Melanome von gutartigen Muttermalen zu unterscheiden. Auch da hat sich die KI wiederum im Internet, also quasi bei Doktor Google, selbst geschult, und auch da lag die Trefferquote ungefähr bei erstaunlichen 90 Prozent. Auch da haben die Forscher aber einen ernüchternden Rückschlag hinnehmen müssen, als sie festgestellt haben, wie die KI ihre Entscheidungen trifft. Wenn Hautärzte glauben, bösartige Melanome zu erkennen, dann halten sie beim Fotografieren gerne ein Lineal neben die verdächtige Stelle, um die Größe darzustellen. Wenn etwas aussieht wie ein unauffälliges Muttermal, dann machen das die Ärzte in der Regel nicht. Die KI hat daraus gelernt: Wenn am Foto ein Lineal zu sehen ist, dann handelt es sich um ein bösartiges Melanom, ohne Lineal um ein gutartiges Muttermal. Auch da war die Trefferquote erstaunlich gut, die Beurteilung aber vollkommen unbrauchbar und wertlos.

Jetzt muss man sich vor Augen halten, dass es auch KI gibt, bei welcher die Forscher gar nicht mehr dahinterblicken können, wie die KI ihre Entscheidungen trifft. Dass solche in Wahrheit unintelligente Black Boxes in autonome Waffensysteme eingebaut werden und über Tod oder Leben entscheiden sollen, müssen wir unbedingt verhindern.

Jetzt mache ich einen auf Helmut Brandstätter – man möge es mir verzeihen. Ich habe heute das erste Mal ein Buch mitgebracht. (Bravoruf des Abg. Brandstätter.) Wenn sich jemand mit unbemannten und autonomen Waffensystemen nämlich näher beschäftigen möchte, dann empfehle ich dieses hervorragende Buch (das genannte Buch in die Höhe haltend): „Robotic Wars“ von Oberst des Generalstabsdienstes Dr. Markus Reisner vom österreichischen Bundesheer. (Beifall bei der FPÖ sowie des Abg. Brandstätter.)

13.44

Präsident Ing. Norbert Hofer: Zu Wort gelangt Frau Dr.in Ewa Ernst-Dziedzic. – Bitte schön, Frau Abgeordnete.