645/A(E) XXVI. GP

Eingebracht am 27.02.2019
Dieser Text wurde elektronisch übermittelt. Abweichungen vom Original sind möglich.

EntschlieSSungsantrag

 

 

der Abgeordneten Claudia Gamon‚ MSc (WU), Kolleginnen und Kollegen

betreffend Entwicklung einer Strategie zur Thematik und Risiken von Deepfakes

 

Im Zuge der Digitalisierung kommen neben vielen positiven Veränderungen auch mehr Risiken auf Bürger_innen, Unternehmen und Staat zu. Ein wesentlicher Risikofaktor geht hierbei von so genannten Deepfakes aus. 

Deepfake-Technologien schaffen die Möglichkeit, täuschend echte Video- und Audio-Dateien von Menschen zu erstellen und ihnen Aussagen in den Mund zu legen oder sie bei Handlungen zu zeigen, welche diese nie begangen haben. Derzeit konzentrieren sich diese Fälschungen auf Personen der Öffentlichkeit, zu denen ausreichend Bild- und Tonmaterial vorhanden ist. 

Durch Fortschritte mit Künstlicher Intelligenz und neuronalen Netzwerken in den letzten Jahren haben diese Technologien ein hohes Niveau an Qualität und Glaubwürdigkeit erreicht, welches in den nächsten Jahren noch weiter zunehmen wird. 

Mit dieser zunehmenden technologischen Entwicklung entsteht ein erhebliches Risiko für Privatpersonen, Politiker_innen und Unternehmen. Mimik, Gestik und Stimme werden zunehmend realer wirken, bis Deepfakes für breite Bevölkerungsteile nicht mehr auf konventionellem Wege von der Wahrheit unterschieden werden können. Gefälschte Bilder, Videos und Tonaufnahmen werden so technisch hochwertige Fake News, die um die Welt gehen und bergen dadurch großes Risikopotential.

Deepfakes von Schlüsselpersonen in der Politik oder in der Wirtschaft könnten ein erhebliches innenpolitisches Risiko bedeuten. Im Falle von Unternehmen besteht die Gefahr gezielter Marktmanipulationen durch den Einsatz von gefälschtem Video- und Bildmaterial, welches unwahre Aussagen von führenden Mitarbeiter_innen von Unternehmen zeigt. Gefälschte Audio- und Videoaufnahmen können politische Risiken bedeuten, etwa wenn diese politische Schlüsselfiguren zeigen und sich rasend schnell über das Internet und Soziale Medien verbreiten. Vollständig gefälschte Reden von Politiker_innen sind bereits Realität, wie etwa eine gefälschte Rede des ehemaligen US Präsidenten Barack Obama zeigte. Auf lange Sicht könnte durch Deepfakes dadurch ein signifikanter Vertrauensverlust in politische und mediale Institutionen folgen. 

Zusätzlich können Privatpersonen durch diese Technologie sehr leicht Opfer von Rufschädigungen, Erpressung und Identitätsdiebstahl werden. Es besteht die Gefahr, dass durch die zunehmende Weiterentwicklung und Verfügbarkeit von Deepfake-Technologien – etwa über Apps – die Manipulation von mittels Künstlicher Intelligenz gefälschten Videos und Bildern eine weite Verbreitung erreicht. 

Durch moderne Technologien erreichen die Einfachheit der Herstellung sowie die Qualität der Fälschungen eine neue Stufe. Expert_innen warnen in Bezug auf Deepfakes vor zunehmender Verbreitung von hochwertigen Fake News, welche großen Schaden anrichten können. 

Es besteht hierzu unzweifelhaft Handlungsbedarf, um den Auswirkungen solcher Video- und Audiobearbeitungen frühzeitig entgegentreten zu können. 

Die Begriffe Fake News und Deepfakes finden sich jedoch beide nicht explizit erwähnt im Regierungsprogramm 2017-22. Dieser Umstand lässt vermuten, dass die Gefahr der Verbreitung fortgeschrittener Deepfakes für Bürger_innen, Politik und Unternehmen noch unterschätzt wird und daher nicht im Fokus der aktuellen Bundesregierung steht. 

 

Die unterfertigenden Abgeordneten stellen daher folgenden

ENTSCHLIESSUNGSANTRAG


Der Nationalrat wolle beschließen:

"Die Bundesregierung, insbesondere der Innenminister, wird aufgefordert, dem Nationalrat ein Konzept zum Umgang mit Deepfakes und einer Strategie zur Bekämpfung von politischen, gesellschaftlichen und wirtschaftlichen Risiken durch Deepfakes vorzulegen. Darin soll das Ziel verfolgt werden, frühzeitig Maßnahmen zur Eindämmung von Risiken zu finden."

In formeller Hinsicht wird die Zuweisung an den Ausschuss für innere Angelegenheiten vorgeschlagen.