18.38

Abgeordnete Mag. Meri Disoski (Grüne): Frau Präsidentin! Herr Staatssekretär! Liebe Kolleginnen und Kollegen! Sehr geehrte Zuseherinnen und Zuseher, insbesondere hier auf der Galerie! Wir haben ja heute die Europastunde mit dem Thema Sicherheit begonnen und haben da unterschiedliche Aspekte herausgeschält, die in diesem Sicherheitsthema drinnen sind.

Wir – oder zumindest einige Fraktionen – waren uns darin einig, dass Sicherheit auch mit dem Schutz vor geschlechtsspezifischer Gewalt zu tun hat. Das, sehr geehrte Damen und Herren, ist ein großes Problem, das uns hier im Hohen Haus ja schon sehr lange begleitet – leider, muss ich sagen. Diese Gewalt, von der wir sprechen, hat ja sehr viele unterschiedliche Formen und Facetten. Sie kann körperlich oder psychisch sein und circa seit Beginn der 2010er-Jahre ist sie immer öfter auch eines: digital.

Bekannte Begriffe sind Revengeporn, also Rachepornos, Fakenudes, gefälschte Nacktbilder, oder Sextortion, bei der es darum geht, dass Videos und Fotos gegen den Willen der Betroffenen veröffentlicht werden. All diese Begriffe haben unterschiedliche Wortlaute, aber sie beschreiben im Wesentlichen ein Problem, nämlich digitale geschlechtsspezifische Gewalt.

Erinnern Sie sich zurück: Um 2014 herum war es so, dass man ja die ganzen Daten meistens in irgendwelchen Cloudaccounts gespeichert hat, dass dann Täter diese gehackt haben und versucht haben, mit der Zuhilfenahme unterschiedlicher Programme – beispielsweise Photoshop – Bilder so zu bearbeiten, dass sie mehr oder weniger realitätsgetreu pornografische Inhalte dargestellt haben.

Neuerdings „hilft“ – unter Anführungszeichen – künstliche Intelligenz dabei, dass diese digitalen Gewaltakte sehr viel schneller und sehr viel realitätsgetreuer ausgeübt werden können. Somit werden auch die Deepfakes, die so erstellt werden, umso gefährlicher, nämlich für die Betroffenen, die dem im Moment in weiten Teilen wehrlos ausgesetzt sind. Diese Betroffenen sind – wir haben es im Laufe der Debatte jetzt schon ein paar Mal gehört – vor allem eines, nämlich weiblich. Es sind sehr viele, und die Zahl der Betroffenen ist leider exponentiell steigend.

Kollege Zorba hat es vorhin schon gesagt und dieses Beispiel aus Spanien erwähnt, wo im September des Vorjahres an mehreren spanischen Schulen plötzlich künstlich generierte Nacktbilder von Schülerinnen aufgetaucht sind, die von Schulkollegen in Umlauf gebracht worden sind, womit man versucht hat, die Mädchen unter Druck zu setzen, zu erpressen. Das war, glaube ich, das erste Mal, dass die breite Öffentlichkeit bei diesem Thema wachgerüttelt worden ist.

Wir haben schon mehrfach gehört, es kann alle betreffen, es kann auch Superstars betreffen. Taylor Swift ist genannt worden, die ja jetzt tatsächlich trotz bestehender Verbote auf diversen Plattformen nicht davor geschützt werden konnte, dass KI-gefälschte pornografische Darstellungen von ihr in Umlauf gebracht worden sind, zigmillionenfach geteilt, geshart, angesehen worden sind. Das ist natürlich ein massiver Eingriff, eine massive Grenzüberschreitung und Gewalthandlung.

Was wir noch sehen, ist, dass bislang eigentlich kein Land und auch keine Plattform in irgendeiner Weise schnell greifende, wirksame Maßnahmen hat, damit sich Betroffene gegen solche Übergriffe schützen können. Dabei wird es aber von Tag zu Tag eigentlich wichtiger, dass man Möglichkeiten schafft, sich gegen diese Gewaltakte zu wehren, weil – und ich finde, diese Zahl ist sehr erschütternd; das müssen Sie sich wirklich vergegenwärtigen – es heutzutage nur 25 Minuten dauert und einzig und allein ein scharfes – im Sinn von gut aufgenommenes – Porträtfoto braucht, damit jemand von jemandem Deepfakepornovideos erstellen kann: ein Foto, in 25 Minuten ein Deepfakepornofilm.

Umso wichtiger ist es, dass die neue Servicestelle für künstliche Intelligenz, die wir heute hier auf den Weg bringen, tatsächlich einen ersten Schritt in die richtige Richtung darstellt, weil diese Servicestelle neben ihrer beratenden, analysierenden, informierenden Funktion durch den elfköpfigen Beirat, von dem wir jetzt auch schon gehört haben, natürlich diese und auch die nächstfolgenden Regierungen dabei beraten soll, wie man technische, ethische und auch gesellschaftliche Aspekte, die in Zusammenhang mit künstlicher Intelligenz stehen, und Probleme, die damit auftreten, wirklich gut und fundiert bearbeiten kann. Selbstverständlich beinhaltet das auch das Thema Gewaltschutz und das Thema Sicherheit von Frauen im Sinne von Cybersicherheit von Frauen. (Zwischenruf der Abg. Kucharowits.)

Die Dringlichkeit ist jedenfalls gegeben, und es ist gut, dass wir diesen ersten Schritt gehen können. Wir können und dürfen – und ich glaube, da sind wir uns einig, so wie ich die Debatte verstanden habe – bei der Behandlung von künstlicher Intelligenz und ihren Anwendungen in allen Arbeits- und Lebensbereichen, die es so gibt, nicht nur über die positiven Aspekte sprechen, die mit diesen digitalen Intelligenzen einhergehen, sondern wir müssen auch über die missbräuchliche Verwendung dieser Intelligenzen reden, damit wir proaktiv und präventiv Lösungsmöglichkeiten schaffen. Das machen wir in Zukunft mit fachlicher Unterstützung.

Ich persönlich finde es sehr gut, dass uns dieser erste Schritt gelingt, und hege sehr große Hoffnungen, dass weitere Schritte folgen werden. (Beifall bei den Grünen und bei Abgeordneten der ÖVP.)

18.43