826/A(E) XXVI. GP
Eingebracht am
16.05.2019
Dieser Text ist elektronisch textinterpretiert. Abweichungen vom
Original sind möglich.
Entschließungsantrag
der Abgeordneten Stephanie Cox, Kolleginnen und Kollegen
betreffend Zivilgesellschaftliche Repräsentanz in österreichischen Beratungsgremien zu Künstlicher Intelligenz (Kl)
BEGRÜNDUNG
Kanada hat im
März 2017 seine „Pan-Canadian Artificial Intelligence
Strategy“ vorgestellt.[1]
Über 20
weitere Industrieländer sind bis heute gefolgt und haben ebenfalls
Kl-Strategien vorgelegt, eine ambitionierter als die andere.[2] Es herrscht ein
weltweites Rennen um die Innovationsführerschaft bei
der Entwicklung von Kl. Obwohl es bei diesem Rennen in den meisten Fällen
hauptsächlich um die wirtschaftliche und technologische
Wettbewerbsfähigkeit einzelner Nationen geht[3], entstehen auch
immer mehr ethische Richtlinien, ethische Advisory Boards und Ethikkommissionen
für den Einsatz
von Kl. Nur ein paar Beispiele:
Die fünf
Datenriesen, unter anderem Google, Amazon und Microsoft, arbeiten schon seit
Jahren an unterschiedlichen Lösungsansätzen für die ethische
Entwicklung von Kl, Facebook fördert ein Institut
für ethische Kl an der Technischen Universität München mit 7,5
Millionen Euro, Deutschland hat 2017
eine Ethikkommission fürs autonome und vernetzte Fahren installiert[4] und die EU
Kommission hat erst
im April 2019 ihre „Ethics guidelines for trustworthy AI“
veröffentlicht.[5]
Vor dem Hintergrund
von algorithmic bias, also Algorithmusfehlern, die eine Minderheit an Nutzern
benachteiligen, und politisch motivierten Machtautomatismen wie dem
chinesischen Sozialkredit-
System[6] ist diese weltweite Ethikoffensive
grundsätzlich zu begrüßen. Der österreichische Rat
für
Robotik und Künstliche Intelligenz sieht das ähnlich und definiert
Ethik als „Leitprinzip" für die
Entwicklung und Nutzung von Kl.[7]
Rumman Chowdhury,
Data Scientist und Leiter der Abteilung für verantwortungsvolle Kl bei
Accenture, bringt jedoch eine wesentliche Schwäche der weltweiten
Ethik-Initiativen auf den Punkt:
sie sind intransparent.[8]
Laut Chowdhury ist
es in der Regel unklar, warum wer entscheiden darf, was bei der Entwicklung von
Kl ethisch vertretbar ist und was nicht. Das schürt Skepsis, Unsicherheit
und Ängste - vor allem bei
jenen BürgerInnen, die sich nicht mit den technischen Details hinter
Künstlicher Intelligenz auskennen
und die die negativen oder positiven Effekte vom Einzug Künstlicher
Intelligenz in den Alltag nicht
rational beurteilen können.
Österreich hat
im Rahmen des aktuell laufenden Kl-Strategieprozesses „AIM AT 2030“
die Chance,
als weltweit erste Nation ihre BürgerInnen bei der Entwicklung und
ethischen Bewertung von
Künstlicher Intelligenz über die Strategiephase hinaus stetig
einzubeziehen. Die Zivilgesellschaft, die
mit den Konsequenzen vom Einsatz Künstlicher Intelligenz leben muss, muss
im Strategieprozess
AIM AT 2030 unbedingt mitgedacht und bei der Umsetzung der Strategie laufend
einbezogen werden.
Das wird wesentlich dazu beitragen, dass sich die österreichischen
BürgerInnen einbezogen und ernstgenommen fühlen. Und es somit zu der
nötigen Transparenz kommt.
Die unterfertigenden Abgeordneten stellen daher folgenden
ENTSCHLIESSUNGSANTRAG
Der Nationalrat wolle beschließen:
Die
Bundesregierung, insbesondere der Bundesminister für Verkehr, Innovation
und
Technologie, wird aufgefordert, im Rahmen der Arbeit an der
österreichischen Kl-Strategie
„AIM AT 2030“, insbesondere bei der Entwicklung etwaiger ethischer
Beratungsgremien oder Advisory Boards, einen festen Platz für eine/n
Repräsentantin/en aus der österreichischen Zivilgesellschaft zu reservieren.
Der/die RepräsentantIn soll österreichische/r StaatsbürgerIn
und politisch unabhängig sein. Er/sie soll keiner staatlichen Behörde
oder Kammer zugehörig
sein. Der/die RepräsentantIn soll im Rahmen eines öffentlich
transparenten und
demokratischen Auswahlprozesses bestimmt werden.“
In formeller Hinsicht wird die Zuweisung an den Ausschuss für Forschung, Innovation, Technologie und Digitalisierung vorgeschlagen.
[1] https.//medium.com/politics-ai/an-overview-of-national-ai-strategies-2a70ec6edfd .
[2] Vgl. APA Meldung APA0206 5 Wl 0319 ll/XI vom 02.05.2019.
[3] vgl. https://www brinknews.coin/collaboration-is-necessarv-for-ethical-artificial-intelliqence/.
[4] https://www.bmvi.de/SharedDocs/EN/publications/report-ethics-commission.pdf?_blob=publicationFile.
[5] https://ec.europa.eu/digital-single-inarket/en/news/ethics-guidelines-trustworthy-ai.
[6]
https://www.forbes.com/sites/kasiaborowska/2019/01/22/the-ai-arms-race-means-we-need-ai-
ethics/#35646f9f67a0.
[7] https.//www.bmvit.gv.at/innovation/downloads/white_paper_robotikrat.pdf.
[8] https://www.axios.com/international-ai-artificial-intelligence-ethics-eu-oecd-803a6595-1bef-4ffc8-a1ce-
18fb93b061f8.html.