21.09

Abgeordneter Süleyman Zorba (Grüne): Sehr geehrter Herr Präsident! Herr Minister! Werte Kolleginnen und Kollegen! Sehr geschätzte Zuseherinnen und Zuseher! Der vor­liegende Antrag betreffend Deepfakes befasst sich mit einer Materie, die Sicherheits­expertInnen schon länger erhebliche Kopfschmerzen bereitet. Mit der Weiterentwicklung technologischer Möglichkeiten wird es immer einfacher, täuschend echte Deepfakes zu erstellen. Somit ist es möglich, Menschen Aussagen und Handlungen anzulasten, die sie in Wahrheit gar nicht getätigt haben. Dabei handelt es sich großteils um Videoda­teien, die mit Einsatz von künstlicher Intelligenz manipuliert beziehungsweise generiert werden. Durch die scheinbare Echtheit dieser Videos bedeutet das für den öffentlichen Bereich zum Beispiel, dass es möglich ist, berühmten und bekannten Persönlichkeiten auf sehr einfache Art Handlungen anzulasten, die nicht der Realität entsprechen.

Natürlich können es auch satirische Inhalte sein, die ganz lustig sind, wie wir vorhin ge­sehen haben. Es besteht aber eben auch die Möglichkeit, dass das in eine problema­tische Richtung geht. Deepfakes können Persönlichkeitsrechte verletzen und in Anschul­digungen, Verwicklungen und Auseinandersetzungen münden, die im politischen Umfeld eine gesellschaftliche Tragweite und Dynamik entwickeln, die gefährlich sein kann. Ge­rade in einer Zeit, in der Fakenews immer gezielter eingesetzt werden, um demokrati­sche Willensbildung zu beeinflussen, muss uns die zunehmende Verbreitung von Deep­fakes Sorgen bereiten.

Doch auch für Privatpersonen ist die Gefahr, die von Deepfakes für die eigenen Per­sönlichkeitsrechte ausgeht, nicht zu unterschätzen. Egal ob es um Cybermobbing oder um Rachepornos geht: Zunehmend besteht das Risiko, dass Frauen mit der Veröffentli­chung von manipulierten pornografischen Videoaufnahmen bedroht oder erpresst wer­den, denn für die Erstellung von Deepfakes braucht es keine hoch komplizierte Technik mehr. Ein ganz normaler PC, den die meisten von uns zu Hause haben, sowie 15 bis 20 Bilder einer Person reichen bereits aus, um täuschend echte Videos zu generieren.

Noch vor wenigen Jahren hätte es einen immensen Aufwand bedeutet, Videos in dieser Qualität zu manipulieren und zu fälschen. Heute stehen diese technischen Möglichkeiten einer breiten Öffentlichkeit gratis zur Verfügung. Das führt auch dazu, dass laut Deep­trace mittlerweile ein Großteil aller veröffentlichten Deepfakes in die Kategorie der por­nografischen Inhalte fällt. Auch um diesem frauenfeindlichen Trend Einhalt zu gebieten, braucht es eine Strategie seitens der Bundesregierung im Umgang mit Deepfakes.

Um auf diese genannten bedrohlichen Entwicklungen zu reagieren, haben wir bereits im Regierungsprogramm Punkte vereinbart, die sich mit der Bekämpfung von Cyberkrimi­nalität beschäftigen. Zwar bietet unser Recht jetzt schon Möglichkeiten, sich gegen die Veröffentlichung und Verbreitung von Deepfakes zur Wehr zu setzen – beispielsweise im Strafrecht –, jedoch stellt diese Art der Technologie zweifelsohne eine neue und um­fassende Art der Bedrohung dar.

Die KI-Entwicklungen werden zu immer besseren Ergebnissen mit immer weniger Auf­wand führen. Das ist eine Entwicklung, die es notwendig macht, sich dem Ganzen mit einer umfassenden Strategie entgegenzusetzen. Aus diesen Gründen möchte ich Kolle­gen Hoyos danken, dass er dieses wichtige Thema mit seinem Entschließungsantrag aufgegriffen hat. Dieser Entschließungsantrag wird unsere Zustimmung finden.

Gehen wir es also an und machen wir uns an die Erarbeitung der im Antrag geforderten Strategie zu Deepfakes, um unsere demokratischen Institutionen zu schützen, um Per­sönlichkeitsrechte zu stärken und frauenfeindlichen Praktiken einen Riegel vorzuschie­ben! – Danke. (Beifall bei den Grünen und bei Abgeordneten der ÖVP.)

21.13

Präsident Ing. Norbert Hofer: Nächster Redner: Herr Abgeordneter Hoyos-Trautt­mansdorff. – Bitte schön, Herr Abgeordneter.