826/A(E) XXVI. GP

Eingebracht am 16.05.2019
Dieser Text ist elektronisch textinterpretiert. Abweichungen vom Original sind möglich.

Entschließungsantrag

der Abgeordneten Stephanie Cox, Kolleginnen und Kollegen

betreffend Zivilgesellschaftliche Repräsentanz in österreichischen Beratungsgremien zu Künstlicher Intelligenz (Kl)

BEGRÜNDUNG

Kanada hat im März 2017 seine „Pan-Canadian Artificial Intelligence Strategy“ vorgestellt.[1] Über 20
weitere Industrieländer sind bis heute gefolgt und haben ebenfalls Kl-Strategien vorgelegt, eine ambitionierter als die andere.[2] Es herrscht ein weltweites Rennen um die Innovationsführerschaft bei
der Entwicklung von Kl. Obwohl es bei diesem Rennen in den meisten Fällen hauptsächlich um die wirtschaftliche und technologische Wettbewerbsfähigkeit einzelner Nationen geht[3], entstehen auch
immer mehr ethische Richtlinien, ethische Advisory Boards und Ethikkommissionen für den Einsatz
von Kl. Nur ein paar Beispiele:

Die fünf Datenriesen, unter anderem Google, Amazon und Microsoft, arbeiten schon seit Jahren an unterschiedlichen Lösungsansätzen für die ethische Entwicklung von Kl, Facebook fördert ein Institut
für ethische Kl an der Technischen Universität München mit 7,5 Millionen Euro, Deutschland hat 2017
eine Ethikkommission fürs autonome und vernetzte Fahren installiert[4] und die EU Kommission hat erst
im April 2019 ihre „Ethics guidelines for trustworthy AI“ veröffentlicht.[5]

Vor dem Hintergrund von algorithmic bias, also Algorithmusfehlern, die eine Minderheit an Nutzern benachteiligen, und politisch motivierten Machtautomatismen wie dem chinesischen Sozialkredit-
System
[6] ist diese weltweite Ethikoffensive grundsätzlich zu begrüßen. Der österreichische Rat für
Robotik und Künstliche Intelligenz sieht das ähnlich und definiert Ethik als „Leitprinzip" für die
Entwicklung und Nutzung von Kl.[7]

Rumman Chowdhury, Data Scientist und Leiter der Abteilung für verantwortungsvolle Kl bei
Accenture, bringt jedoch eine wesentliche Schwäche der weltweiten Ethik-Initiativen auf den Punkt:
sie sind intransparent.
[8]

Laut Chowdhury ist es in der Regel unklar, warum wer entscheiden darf, was bei der Entwicklung von
Kl ethisch vertretbar ist und was nicht. Das schürt Skepsis, Unsicherheit und Ängste - vor allem bei
jenen BürgerInnen, die sich nicht mit den technischen Details hinter Künstlicher Intelligenz auskennen
und die die negativen oder positiven Effekte vom Einzug Künstlicher Intelligenz in den Alltag nicht
rational beurteilen können.

Österreich hat im Rahmen des aktuell laufenden Kl-Strategieprozesses „AIM AT 2030“ die Chance,
als weltweit erste Nation ihre BürgerInnen bei der Entwicklung und ethischen Bewertung von
Künstlicher Intelligenz über die Strategiephase hinaus stetig einzubeziehen. Die Zivilgesellschaft, die
mit den Konsequenzen vom Einsatz Künstlicher Intelligenz leben muss, muss im Strategieprozess
AIM AT 2030 unbedingt mitgedacht und bei der Umsetzung der Strategie laufend einbezogen werden.
Das wird wesentlich dazu beitragen, dass sich die österreichischen BürgerInnen einbezogen und ernstgenommen fühlen. Und es somit zu der nötigen Transparenz kommt.

Die unterfertigenden Abgeordneten stellen daher folgenden

ENTSCHLIESSUNGSANTRAG

Der Nationalrat wolle beschließen:

Die Bundesregierung, insbesondere der Bundesminister für Verkehr, Innovation und
Technologie, wird aufgefordert, im Rahmen der Arbeit an der österreichischen Kl-Strategie
„AIM AT 2030“, insbesondere bei der Entwicklung etwaiger ethischer Beratungsgremien oder Advisory Boards, einen festen Platz für eine/n Repräsentantin/en aus der österreichischen Zivilgesellschaft zu reservieren. Der/die RepräsentantIn soll österreichische/r StaatsbürgerIn
und politisch unabhängig sein. Er/sie soll keiner staatlichen Behörde oder Kammer zugehörig
sein. Der/die RepräsentantIn soll im Rahmen eines öffentlich transparenten und
demokratischen Auswahlprozesses bestimmt werden.“

In formeller Hinsicht wird die Zuweisung an den Ausschuss für Forschung, Innovation, Technologie und Digitalisierung vorgeschlagen.


 



[1] https.//medium.com/politics-ai/an-overview-of-national-ai-strategies-2a70ec6edfd .

[2] Vgl. APA Meldung APA0206 5 Wl 0319 ll/XI vom 02.05.2019.

[3] vgl. https://www brinknews.coin/collaboration-is-necessarv-for-ethical-artificial-intelliqence/.

[4] https://www.bmvi.de/SharedDocs/EN/publications/report-ethics-commission.pdf?_blob=publicationFile.

[5] https://ec.europa.eu/digital-single-inarket/en/news/ethics-guidelines-trustworthy-ai.

[6] https://www.forbes.com/sites/kasiaborowska/2019/01/22/the-ai-arms-race-means-we-need-ai-
ethics/#35646f9f67a0.

[7] https.//www.bmvit.gv.at/innovation/downloads/white_paper_robotikrat.pdf.

[8] https://www.axios.com/international-ai-artificial-intelligence-ethics-eu-oecd-803a6595-1bef-4ffc8-a1ce-
18fb93b061f8.html.