21.09

Abgeordneter Süleyman Zorba (Grüne): Sehr geehrter Herr Präsident! Herr Minister! Werte Kolleginnen und Kollegen! Sehr geschätzte Zuseherinnen und Zuseher!

Der vorliegende Antrag betreffend Deepfakes befasst sich mit einer Materie, die SicherheitsexpertInnen schon länger erhebliche Kopfschmerzen bereitet. Mit der Weiterentwicklung technologischer Möglichkeiten wird es immer einfacher, täuschend echte Deepfakes zu erstellen. Somit ist es möglich, Menschen Aussagen und Handlungen anzulasten, die sie in Wahrheit gar nicht getätigt haben. Dabei handelt es sich großteils um Videodateien, die mit Einsatz von künstlicher Intelligenz manipuliert beziehungsweise generiert werden. Durch die scheinbare Echtheit dieser Videos bedeutet das für den öffentlichen Bereich zum Beispiel, dass es möglich ist, berühmten und bekannten Persönlichkeiten auf sehr einfache Art Handlungen anzulasten, die nicht der Realität entsprechen.

Natürlich können es auch satirische Inhalte sein, die ganz lustig sind, wie wir vorhin gesehen haben. Es besteht aber eben auch die Möglichkeit, dass es in eine problematische Richtung geht. Deepfakes können Persönlichkeitsrechte verletzen und in Anschuldigungen, Verwicklungen und Auseinandersetzungen münden, die im politischen Umfeld eine gesellschaftliche Tragweite und Dynamik entwickeln, die gefährlich sein kann. Gerade in einer Zeit, in der Fakenews immer gezielter eingesetzt werden, um demokratische Willensbildung zu beeinflussen, muss uns die zunehmende Verbreitung von Deepfakes Sorgen bereiten.

Doch auch für Privatpersonen ist die Gefahr, die von Deepfakes für die eigenen Persönlichkeitsrechte ausgeht, nicht zu unterschätzen. Egal ob es um Cybermobbing oder um Rachepornos geht: Zunehmend besteht das Risiko, dass Frauen mit der Veröffentlichung von manipulierten pornografischen Videoaufnahmen bedroht oder erpresst werden, denn für die Erstellung von Deepfakes braucht es keine hoch komplizierte Technik mehr. Ein ganz normaler PC, den die meisten von uns zu Hause haben, sowie 15 bis 20 Bilder einer Person reichen bereits aus, um täuschend echte Videos zu generieren.

Noch vor wenigen Jahren hätte es einen immensen Aufwand bedeutet, Videos in dieser Qualität zu manipulieren und zu fälschen. Heute stehen diese technischen Möglichkeiten einer breiten Öffentlichkeit gratis zur Verfügung. Das führt auch dazu, dass laut Deeptrace mittlerweile ein Großteil aller veröffentlichten Deepfakes in die Kategorie der pornografischen Inhalte fällt. Auch um diesem frauenfeindlichen Trend Einhalt zu gebieten, braucht es eine Strategie seitens der Bundesregierung im Umgang mit Deepfakes.

Um auf diese genannten bedrohlichen Entwicklungen zu reagieren, haben wir bereits im Regierungsprogramm Punkte vereinbart, die sich mit der Bekämpfung von Cyberkriminalität beschäftigen. Zwar bietet unser Recht jetzt schon Möglichkeiten, sich gegen die Veröffentlichung und Verbreitung von Deepfakes zur Wehr zu setzen – beispielsweise im Strafrecht –, jedoch stellt diese Art der Technologie zweifelsohne eine neue und umfassende Art der Bedrohung dar.

Die KI-Entwicklungen werden zu immer besseren Ergebnissen mit immer weniger Aufwand führen. Das ist eine Entwicklung, die es notwendig macht, sich dem Ganzen mit einer umfassenden Strategie entgegenzusetzen. Aus diesen Gründen möchte ich dem Kollegen Hoyos danken, dass er dieses wichtige Thema mit seinem Entschließungsantrag aufgegriffen hat. Dieser Entschließungsantrag wird unsere Zustimmung finden.

Gehen wir es also an und machen wir uns an die Erarbeitung der im Antrag geforderten Strategie zu Deepfakes, um unsere demokratischen Institutionen zu schützen, um Persönlichkeitsrechte zu stärken und frauenfeindlichen Praktiken einen Riegel vorzuschieben! – Danke. (Beifall bei den Grünen und bei Abgeordneten der ÖVP.)

21.13

Präsident Ing. Norbert Hofer: Nächster Redner: Herr Abgeordneter Hoyos-Trauttmansdorff. – Bitte schön, Herr Abgeordneter.