3979/A(E) XXVII. GP

Eingebracht am 21.03.2024
Dieser Text wurde elektronisch übermittelt. Abweichungen vom Original sind möglich.

Entschließungsantrag

 

der Abgeordneten Katharina Kucharowits,

Genossinnen und Genossen,

 

betreffend „Wahlen vor Deepfakes schützen“

 

Deepfakes sind eine reale Bedrohung für die innerstaatliche Sicherheit und die Demokratie in Österreich. Um der Gefahr von Deepfakes entgegenzuwirken wurde am 18. Jänner 2023 der Aktionsplan Deepfakes im Ausschuss für innere Angelegenheiten von allen Fraktionen angenommen und Innenminister Karner übermittelt.[1] Der Aktionsplan wurde im Rahmen einer interministeriellen Arbeitsgruppe bestehend aus Vertreter:innen des Bundeskanzleramts (BKA), des Bundesministeriums für europäische und internationale Angelegenheiten (BMEIA), des Bundesministeriums für Justiz (BMJ), des Bundesministeriums für Landesverteidigung (BMLV) unter Federführung des Bundesministeriums für Inneres (BMI) erstellt.

 

Im Aktionsplan werden drei mögliche Bedrohungslagen genannt, die mithilfe gezielter Maßnahmen verhindert werden müssen. Im Unterkapitel Sicherheitspolitik spricht man von folgenden möglichen Szenarien:

·         Ein falsches Video, das mittels KI hergestellt wurde, zeigt ein Staatsoberhaupt oder ein Regierungsmitglied, wie dieses Dinge sagt, die in Folge zu Massendemonstrationen und einer Regierungs- und Staatskrise führen könnte.

·         Ein einziges spektakuläres Video, das ausgesprochen realistisch ist, führt zu einer Kette von Reaktionen in anderen Bereichen wie dem Zusammenbruch der Aktienmärkte oder Wahlbeeinflussung.

·         Desinformationskampagnen durch ausländische Akteurinnen und Akteure: Man muss davon ausgehen, dass die Technologie sowohl von anderen Staaten als auch von terroristischen Organisationen für ihre Zwecke eingesetzt werden wird.

 

Um diesen Szenarien entgegenzuwirken werden im Aktionsplan auch Antworten genannt, die etwa eine Wahlbeeinflussung verhindern sollen. Es soll ein effektiver und koordinierter Krisenmanagementmechanismus aufgebaut werden, die Bevölkerung sensibilisiert werden, ein Softwaretool zur Detektion von Deepfakes entwickelt und geschaffen werden, die europäische und internationale Zusammenarbeit verstärkt werden und der European Democracy Action Plan auf nationaler Eben umgesetzt werden.[2]

 

Vorkommnisse aus anderen Ländern, beispielsweise den USA, zeigen, welche Brisanz und welchen Einfluss Deepfakes auf bevorstehende Wahlen haben können und wie wichtig die Umsetzung solch nationaler Aktionspläne auch ist. Bereits vor den ersten Vorwahlen der US-Demokrat:innen in New Hampshire gab es einen Versuch der Wahlbeeinflussung durch Deepfakes. Wähler:innen erhielten gefälschte Anrufe mit der nachgeahmten Stimme von US-Präsident Joe Biden, die von ihm aufgefordert wurden nicht zu den Vorwahlen zu gehen und ihre Stimme für die Wahlen im November aufzusparen. Die KI-Stimme war vom echten Biden akustisch wohl nicht zu unterscheiden. Der Generalstaatsanwalt von New Hampshire hat angekündigt, er untersuche den offensichtlich "unrechtmäßigen Versuch, die Vorwahlen in New Hampshire zu stören und die Wähler zu unterdrücken".[3]

 

Aus diesen Gründen stellen die unterzeichneten Abgeordneten folgenden

 

Entschließungsantrag

 

Der Nationalrat wolle beschließen:

 

„Die Bundesregierung, insbesondere der Bundesminister für Inneres, wird aufgefordert, den nationalen Aktionsplan zur Bekämpfung von Deepfakes als Handlunsganleitung zu nehmen und dem Nationalrat sowie dem Bundesrat ehestmöglich darauf basierende Vorlagen zuzuleiten, mit denen Vorsorge gegen die Beeinflussung von Wahlen bereits bei der Nationalratswahl im September 2024 getroffen werden, damit es zu keiner Wahlbeeinflussung durch Deepfakes, die durch private oder ausländische Akteur:innen hergestellt wurden, kommt.“

 

 

 

 

 

 

Zuweisungsvorschlag: Innenausschuss



[1] https://www.parlament.gv.at/gegenstand/XXVII/III/740?selectedStage=105, Zugriff am 8. März 2024

[2] Ebd., Zugriff am 14. März 2024

[3] https://www.tagesschau.de/ausland/amerika/wahlen-wahlbeeinflussung-ki-100.html, Zugriff am 14. März 2024