Eingelangt am 01.07.2021
Dieser Text wurde elektronisch übermittelt. Abweichungen vom Original sind
möglich.
Anfrage
der Abgeordneten Dr.
Nikolaus Scherak‚ MA, Kolleginnen und Kollegen
an
den Bundesminister für Inneres
betreffend Amnesty
International Bericht Gesichtserkennungstechnologie in Österreich
Amnesty International
veröffentlichte im Mai 2021 einen Bericht zu den menschenrechtlichen
Folgen der in Österreich eingesetzten Gesichtserkennungstechnologie (https://www.amnesty.at/media/8397/amnesty_gesichtserkennungstechnologie-in-oesterreich_bericht-mai-2021.pdf).
Der aktuelle Bericht von
Amnesty International über die menschenrechtlichen Risiken zum Einsatz von
Gesichtserkennungstechnologien in Österreich zeige laut Amnesty, dass
nicht nur der schleichende Übergang in den Regelbetrieb besorgniserregend
ist. Es würde derzeit auch keine ausreichende rechtliche Grundlage
für den Einsatz der Technologie geben. Laut einer Anfragebeantwortung
aus Ihrem Ministerium (2662/AB) in Beantwortung der Anfrage (2648/J) ist das
Gesichtserkennungssystem des Innenministeriums trotzdem nach einem
mehrmonatigen Probebetrieb mit Anfang August bereits in den Regelbetrieb
übergegangen.
Zusammenfassend hält
der Bericht folgende Risiken bei der in Österreich eingesetzten
Technologie und der aktuellen rechtlichen Grundlage fest:
- Der Einsatz von
Gesichtserkennung greift massiv in unsere Menschenrechte, insbesondere in
das Recht auf Privatsphäre ein.
- Gesichtserkennungstechnologien
sind fehlerhaft und bergen ein hohes Risiko der Diskriminierung von
bereits marginalisierten Gruppen.
- Einsatz von
Gesichtserkennungstechnologie anlässlich von Demonstrationen kann
eine abschreckende Wirkung auf die Ausübung des Rechtes auf
Versammlungs- Vereinigungs- und Meinungsäußerungsfreiheit haben
und kann so Menschen davon abhalten, ihr Versammlungsrecht auszuüben.
- Gesichserkennungstechnologie
wird in Österreich in der Strafverfolgung zur Identifizierung von
Personen eingesetzt. Derzeit sind in Österreich potenziell ca.
600.000 Personen vom Einsatz betroffen.
- Amnesty sieht ernsthafte
menschenrechtliche Probleme beim Einsatz der Gesichtserkennungssoftware in
Österreich, insbesondere auch da sie im schlimmsten Fall zur
Massenüberwachung führen kann.
Die unterfertigten
Abgeordneten stellen daher folgende
Anfrage:
- Im Zuge des Einsatzes
der Gesichterkennungssoftware werden Bilder eines Gesichtes, wie zum
Beispiel Fotos aus Überwachungskameras, mit den Fotos einer
Referenzdatenbank der Sicherheitsbehörden („Zentrale
Erkennungsdienstliche Evidenz“) abgeglichen. Diese umfasste zum
Stichtag 31.12.2019 621.678 Personen (2273/AB).
- Wieviele Bilder sind in
der Referenzdatenbank abgespeichert?
- Welche Bilder werden in
der Referenzdatenbank abgespeichert?
- Werden Personen, die in
der "Zentralen Erkennungsdienstlichen Evidenz" gespeichert
sind, über die Erfassung und Speicherung ihrer Bilder informiert?
- Wie kommt das BMI zu
diesen Bildern?
- Wie stellen Sie sicher,
dass sich Personen dagegen aussprechen können, in der
„Zentralen Erkennungsdienstlichen Evidenz" gespeichert zu
werden?
- Ist eine Erweiterung
der „Zentralen Erkennungsdienstlichen Evidenz" oder die
Ausweitung des Einsatzes des Gesichtserkennungsprogramms auf weitere
Datenbanken, wie beispielsweise auf einen Abgleich mit dem Pass- oder
Führerscheinregister, geplant?
- In Österreich
stützt sich der Einsatz von Gesichtserkennungstechnologien auf §
75 SPG. Dieser wird von Amnesty International jedoch als ungeeignet angesehen,
eine derartige Technologie ausreichend zu regeln, da der Gesetzgeber bei
der Einführung von § 75 SPG keine derartige Software und
vor allem nicht deren Risiken vor Augen hatte. Ist § 75 SPG
ausreichend, um den Einsatz von Gesichtserkennungstechnologien zu
regeln?
- Wenn ja, wie
begründen Sie das?
- Wenn nein, ist eine
Anpassung des § 75 SPG in Hinblick auf den Einsatz von
Gesichtserkennungstechnologien geplant?
- Jeder Eingriff in die
Privatsphäre muss gesetzlich vorgesehen sein und auf Basis einer hinreichend
klaren Rechtsgrundlage erfolgen. In Österreich reicht bereits
der Verdacht des Vorliegens einer vorsätzlichen gerichtlich
strafbaren Handlung für die Verwendung des digitalen Bildabgleichs
gemäß § 75 SPG aus. Im Sinne der
Verhältnismäßigkeit von in die Privatsphäre
eingreifenden Maßnahmen sollte jedoch vor Einsatz einer derartigen
Software gelindere Mittel gewählt werden. Sind legistische
Anpassungen in dieser Hinsicht geplant?
- Wenn ja, welche genau?
- Wenn nein, weshalb
nicht?
- Gesichtserkennungstechnologien
sind fehlerhaft und bergen das Risiko der Diskriminierung von
marginalisierten Gruppen. Eine besondere Rolle spielt in diesem
Zusammenhang mit welchen Fotos die von Staaten angekauften
Gesichtserkennungsprogramme trainiert werden. Viele Technologien werden
meist primär mit Bildern von weißen Männern gespeist.
Frauen und Menschen mit anderer Hautfarbe sind in weiterer Folge einem
unverhältnismäßigen Risiko ausgesetzt, nicht so exakt
erkannt und somit fälschlicherweise identifiziert zu werden.
- Mit welchen Bildern
wird/wurde das in Österreich eingesetzte Gesichtserkennungsprogramm
trainiert?
- Wurde in der Phase der
Programmierung und des Training des in Österreich eingesetzten
Gesichtserkennungsprogramms auf die Vermeidung einer Verstärkung von
Vorurteilen und strukturellen Ungleichheiten geachtet?
i. Wenn ja, inwiefern?
ii. Wenn nein, weshalb nicht?
- Wie oft ist es in
Österreich mittlerweile insgesamt zu Abfragen mithilfe einer
Gesichtserkennungssoftware gekommen?
- Wie viele Personen
(Vergleichsbilder) erscheinen pro Abfrage?