14.53

Staatssekretär im Bundesministerium für Finanzen Florian Tursky, MBA MSc: Lieber Marco, vielen Dank für den Input. Ich muss aber trotzdem sagen, dass die gängigen KI-Systeme aktuell schon so gut geschult sind, dass es durchaus erkannt werden würde, wenn du ihnen den Auftrag geben würdest, eine tolle Rede über die Grünen für Christoph zu schreiben, und sie dir wahrscheinlich antworten würden: Das hättest du wohl gerne! (Allgemeine Heiterkeit. – Zwischen­ruf des Bundesrates Steiner.)

Meine sehr geehrten Damen und Herren, das war ein bisschen etwas zur Aufheiterung. Die künstliche Intelligenz – und ich danke Bundesrat Obrecht sehr für seine Ausführungen – führt tatsächlich zu unglaublich vielen Sorgen und Ängsten in der Bevölkerung, und das insbesondere, weil wir dabei in den vergan­genen Jahren eine enorme Veränderung erfahren haben.

Künstliche Intelligenz – das wissen wir sowohl von der Arbeitnehmerseite als auch von der Arbeitgeberseite – wird seit Jahrzehnten bereits in Industrie und Wirtschaft eingesetzt. Das ist nichts Außergewöhnliches und hat auch in vielen Bereichen gerade der Forschung und Wissenschaft dazu geführt, dass wir enorme Fortschritte gemacht haben. Deshalb beschäftigt sich auch die Europäische Union bereits seit einigen Jahren mit dem Thema AI-Act, künstliche Intelligenz, also einem Rechtsrahmen für die künstliche Intelligenz, mit dem großen Unterschied, dass ich weder in der österreichischen Medienlandschaft noch in der österreichischen Bevölkerung vor eineinhalb Jahren, wenn ich über den AI-Act gesprochen habe, irgendjemanden hinter dem Ofen hervorgebracht hätte. Das Thema war nicht auf der Agenda.

Das hat sich schlagartig geändert, als es leider wieder einmal einen amerikani­schen Hyperscaler gebraucht hat, der eine App programmiert hat, ganz einfach, mit einer Chatfunktion, mit der jeder ausprobieren konnte, was denn eine generative künstliche Intelligenz ist.

Plötzlich hatte dadurch jeder eine Vorstellung, was das denn sein kann und welche Folgen es haben kann, welche auch persönlichen Folgen für den eigenen Beruf oder die eigene Tätigkeit. Damit – und ich nehme das eigentlich als positiv – hat schon ein Aufwachen in der Politik, aber auch in der gesamten Bevölkerung stattgefunden, sich damit zu beschäftigen.

Vorweg möchte ich aber sagen – darauf werde ich noch ein-, zweimal kurz zurückkommen –: Wichtig ist für uns schon, die Chancen der künstlichen Intelligenz als Erstes zu sehen, aber trotz dieser Chancen die Risiken nicht aus den Augen zu verlieren.

Mit all dem beschäftigen sich die KI-Servicestelle und auch der AI-Act: wie wir einerseits gerade in dieser Zangensituation Europas zwischen China, Indien auf der einen Seite und den Vereinigten Staaten auf der anderen Seite die Chancen der künstlichen Intelligenz nutzen können, um unseren Standort abzusichern, um unsere Wissenschaft und Forschung zu befeuern, um in der Medizin neue Fortschritte zu machen; wie auf der anderen Seite aber das, was wir als digitalen Humanismus verstehen, das, was wir als Regeln des Zusammenlebens, auch als Rechtsnormen in der analogen Welt verstehen, nicht verloren geht. Dazu gehören Arbeitnehmerrechte – KI am Arbeitsplatz wird uns noch enorm beschäf­tigen –, aber auch Dinge wie Deepfakes, Fakenews oder auch Cyberkrimi­nalität.

All dem widmet sich die Europäische Union nicht erst seit dem AI-Act. Da möchte ich auch das ansprechen, was Sie (in Richtung Bundesrat Obrecht) gesagt haben. Bei ganz, ganz vielen Punkten, die von Ihnen angesprochen wurden, geht es um das prinzipielle Verhältnis zwischen Plattform und User. Da haben wir – und das tritt exakt morgen in Kraft – den sogenannten Digital Services Act, wahrscheinlich die maßgeblichste europäische Gesetzgebung im digitalen Feld, die sich genau damit beschäftigt: mit den Rechten der Bürgerinnen und Bürger gegenüber den großen Hyperscalern.

Wir haben in Österreich hierzu vor Kurzem das DSA-Begleitgesetz erlassen, mit der KommAustria, das genau an diese Stelle tritt: das auch zu exekutieren und für die Bürgerinnen und Bürger da zu sein, diese Rechte auch einzufordern. Das steht auf der einen Seite.

Jetzt geht es um den AI-Act. Der AI-Act hat eine wahrscheinlich bis jetzt für EU-Regulierungen eher untypische Art und Weise, an die Sache heranzugehen. Wir sprechen von einem risikobasierten Ansatz. Es gibt Anwendungen mit geringem Risiko, mittlerem Risiko, hohem Risiko, unannehmbarem Risiko. Die Europäische Union hat gesagt – und das ist aus meiner Sicht hochintelligent; es wird auch von allen so beschieden –: Wir teilen nicht die KI selber ein, sondern den Anwendungsfall!

Wir stufen also die KI zum Beispiel im Anwendungsfall der HR als Hochrisiko­anwendung ein. Wir stufen die künstliche Intelligenz in der Anwendung im Versicherungswesen – ein Punkt, den ich eingebracht habe, weil ich nicht will, dass das uneingeschränkt verwendet werden kann – als Hochrisikoanwendung ein. Oder: Wir stufen auch Anwendungen, die wir in Europa bewusst nicht haben wollen, weil sie nicht unserem Menschenbild entsprechen, zum Beispiel das Social Scoring, als unannehmbares Risiko ein, sodass das nicht sein darf.

Für all das braucht es eine nationale rechtliche Durchsetzung. Deshalb werden in allen EU-Mitgliedstaaten sogenannte KI-Behörden in irgendeiner Art und Weise eingeführt werden. Das heißt aber, wir müssen uns jetzt darauf vorbereiten, wie wir das rechtlich entsprechend durchsetzen. Das heißt, wenn sich dann eben eine betroffene Person zum Beispiel im HR-Bereich oder auch die von Ihnen angesprochenen Personen durch eine Anwendung benachteiligt fühlen, können sie jemanden anrufen. Das wird diese KI-Servicestelle, die dann in eine KI-Behörde übergeht, leisten müssen, wenn sie dann eine KI-Behörde ist und sich dadurch, mit dem Inkrafttreten des AI-Acts, auf die Rechtsbasis durch den AI-Act berufen kann. (Vizepräsident Reisinger übernimmt den Vorsitz.)

Die zweite Aufgabe wird aber sein: Wie schaffen wir Rechtssicherheit für die Unternehmerinnen und Unternehmer? Wie können wir es schaffen, dass wir über Österreich KI-Anwendungen europaweit in den Markt bringen und bei uns zertifizieren können? Das sollte aus unserer Sicht möglichst schnell passieren, damit wir einen Wettbewerbsvorteil haben – deshalb auch die KI-Servicestelle mit diesem Fokus auf Unternehmerinnen und Unternehmer, die sich schon jetzt an sie wenden können, was ich für eine wichtige Sache halte, weil wir einmal Gott sei Dank nicht spät dran sind.

Normalerweise werde ich hier dafür kritisiert, dass wir irgendetwas zu spät umsetzen: auf nationaler Ebene eine EU-Richtlinie oder eine EU-Verordnung. Diesmal ist es eben Gott sei Dank so, dass wir etwas früher dran sind.

Damit einhergehend wird es eine ganz wichtige Transparenzverpflichtung geben, der Kollege von der FPÖ hat das richtig gesagt. Das Wichtigste wird nämlich sein, den Bürgerinnen und Bürgern jederzeit mitzuteilen: Jetzt sind Sie mit einer künstlichen Intelligenz konfrontiert. Der KI-Servicestelle wird ein KI-Beirat zur Seite gestellt, der aus Wissenschaft und Forschung besteht. Das passiert ganz gezielt, weil es da aus unserer Sicht einerseits um ethische Fragen in der Wissen­schaft, andererseits aber um wirtschaftswissenschaftliche sowie um technische Aspekte und eine wissenschaftliche Betrachtungsweise geht. Parallel dazu wird es das Stakeholderforum geben, bei dem die Sozialpartnerinnen und Sozial­partner, NGOs, Datenschützerinnen und Datenschützer dabei sind, um sich in diesen Prozess einzubringen.

Ich bin sehr froh, dass wir das heute hoffentlich abschließen können. Die KI-Servicestelle wird eine der ersten in ganz Europa sein – nur Spanien und die Niederlande sind bereits ähnlich weit wie wir. Wir positionieren uns hier hoffentlich auch als Frontrunner, wenn es darum geht, Trustworthy AI – KI, der die Menschen vertrauen können – in Österreich in den Verkehr zu bringen. –Vielen herzlichen Dank! (Beifall bei ÖVP und Grünen.)

15.01

Vizepräsident Dominik Reisinger: Danke, Herr Staatssekretär.

Als Nächste zu Wort gemeldet ist Frau Bundesrätin Elisabeth Wolff. Ich erteile ihr dieses. – Bitte.