517/A(E) XXVIII. GP
Eingebracht am 15.10.2025
Dieser Text wurde elektronisch übermittelt. Abweichungen vom Original sind
möglich.
Parlamentarische Materialien
ENTSCHLIESSUNGSANTRAG
der Abgeordneten Süleyman Zorba, Freundinnen und Freunde
betreffend KI-Behörde endlich benennen
BEGRÜNDUNG
Während immer mehr Hochrisiko-KI-Anwendungen ihren Niederschlag in unserem täglichen Leben finden, ist die österreichische Bundesregierung bei den KI-Behörden, die gerade hier eine Marktaufsicht ausüben müssten, säumig.
KI-Systeme, die von der Polizei zur Gesichtserkennung eingesetzt werden, KI-Systeme für die Auswahl von natürlichen Personen bei Stellenbewerbungen, KI-Systeme zur Bewertung der Kreditwürdigkeit, KI-Systeme als Sicherheitskomponenten von kritischer Infrastruktur oder auch KI-Systeme, die von Behörden zur Bewertung von Anspruchsberechtigungen von Bürger:innen eingesetzt werden – all das sind Anwendungen von Hochrisiko-KI. Diese Systeme greifen tief in unser tägliches Leben, aber auch in unsere Sicherheit ein und sollten deshalb einer besonderen Aufsicht unterliegen.
Der AI Act, die EU-Verordnung 2024/1689 über künstliche Intelligenz[1] ist 2024 in Kraft getreten. Die Bestimmungen des AI Act treten stufenweise in Geltung. Seit Februar 2025 gelten die allgemeinen Bestimmungen sowie die Regelungen über verbotene AI Praktiken. Seit 2.8.2025 gelten Transparenzverpflichtungen für Anbieter und Betreiber von bestimmten KI-Systemen. Ebenso gelten seit 2.8.2025 die Bestimmungen zu nationalen Behörden und zur Governance auf EU-Ebene.
Damit hätten folgende nationale Behörden mit 2.8.2025 benannt werden müssen:
· mindestens eine notifizierende Behörde (Art 28 AI Act) für Hochrisiko-KI-Systeme
· sowie mindestens eine Marktüberwachungsbehörde (Art 70 AI Act).
Diese nationalen Behörden müssen ihre Befugnisse unabhängig, unparteiisch und unvoreingenommen ausüben, um die Objektivität ihrer Tätigkeiten und Aufgaben zu gewährleisten und die Anwendung und Durchführung des AI Act sicherzustellen.
Als Vorbereitung für die nationalen KI-Behörden wurde schon in der türkis/grünen Regierungszeit bei der RTR die KI-Servicestelle eingerichtet.[2] Trotz dieser Vorarbeiten ist die aktuelle Bundesregierung aber bei der Einrichtung der im AI Act zwingend vorgesehenen nationalen Behörden säumig. Im Juli 2025 erklärte Digitalisierungsstaatssekretär Alexander Pröll dass die KI-Behörde verspätet im Herbst starten würde. „Bis zum Ende des Sommers“ sollte es eine Lösung geben.[3]
Nunmehr ist das Ende des Sommers vorbei, und es gibt weder eine notifizierende Behörde noch eine Marktüberwachungsbehörde. Dabei starten Unternehmen bereits mit KI-Anwendungen – etwa zur Zusammenfassung oder Auswahl von Bewerbungen. Derartige Anwendungen stellen Hochrisiko-KI-Anwendungen dar und unterliegen der Zuständigkeit einer Marktüberwachungsbehörde, die es in Österreich aber gar nicht gibt. An sich sollten schwerwiegende Vorfälle mit einer derartigen KI unverzüglich dem Anbieter oder Händler und der zuständigen Marktüberwachungsbehörde gemeldet werden. Die Säumigkeit der Regierung torpediert das.
So bewegen sich Unternehmen, die KI-Systeme zB beim Bewerbungsprozess oder etwa im Bankenbereich zur Beurteilung der Kreditwürdigkeit einsetzen, in einem rechtlichen Graubereich.[4] Aber auch der Einsatz von KI durch Behörden (etwa die von der Polizei genutzte KI-gestützte Gesichtserkennung) steht durch das Fehlen von Marktaufsichtsbehörden auf tönernen Füßen.
Hinzu kommt ein problematischer Punkt im österreichischen Regierungsprogramm. Dort heißt es auf S 181:
„Institutionell wird dazu die KI-Behörde aufbauend auf die KI-Servicestelle in der Rundfunk und Telekom Regulierungs-GmbH (RTR) eingerichtet. Diese soll unabhängig sein und die nichtkommerzielle, rechtliche Beratung von Organisationen und Unternehmen in der Umsetzung von KI-Maßnahmen und des AI-Acts ist in Abstimmung mit den anderen Institutionen, die sich mit KI beschäftigen, eine wesentliche Aufgabe.“[5]
Das heißt, die von der Regierung geplante Behörde soll offenkundig nicht nur kontrollieren, sondern auch unentgeltlich Unternehmen beraten. Diese Doppelrolle birgt aber einen offensichtlichen Interessenskonflikt.[6] Laut AI Act müsste die KI-Behörde ihre Aufgaben nicht nur unabhängig, sondern auch unparteiisch und unvoreingenommen ausüben.
Darüber hinaus soll laut Regierungsprogramm die „Einrichtung einer Kontrollstelle zur Sicherung des Grundrechtsschutzes“ durch KI-Systeme „geprüft werden“. Diese Formulierung („geprüft werden“) legt eine Uneinigkeit der Regierungsparteien bei der Ausgestaltung der Behörden und bei deren Befugnissen und Aufgaben im Zusammenhang mit dem Grundrechtsschutz nahe.
Fakt ist: Eine glaubwürdige und vor allem unvoreingenommene Aufsicht ist nur möglich, wenn klare institutionelle Trennlinien zwischen Aufsicht und Beratung bestehen.
Die unterfertigenden Abgeordneten stellen daher folgenden
ENTSCHLIESSUNGSANTRAG
Der Nationalrat wolle beschließen:
„Die österreichische Bundesregierung wird aufgefordert, unverzüglich eine notifizierende Behörde sowie eine Marktaufsichtsbehörde im Sinne des Art 70 AI Act zu benennen. Bei der Ausgestaltung der Behörden sind Interessenkonflikte zwischen einer beratenden Funktion und der zwingenden Aufsichtsfunktion auszuschließen.“
In formeller Hinsicht wird die Zuweisung an den Ausschuss für Wissenschaft, Forschung und Digitalisierung vorgeschlagen.
[1] https://eur-lex.europa.eu/legal-content/DE/TXT/HTML/?uri=OJ:L_202401689
[2] https://www.ki-strategie.at/2024/04/ki-servicestelle-in-der-rtr/
[3] https://www.derstandard.at/story/3000000281039/staatssekret228r-pr246ll-ki-beh246rde-startet-versp228tet-im-herbst
[4] https://www.derstandard.at/story/3000000290154/ki-zwischenfaelle-im-unternehmen-was-recht-und-praxis-verlangen
[5] https://www.wko.at/oe/handel/regierungsprogramm.pdf
[6] https://epicenter.works/content/ohne-aufsicht-droht-gefahr-der-staat-muss-bei-ki-handeln