7175/J XXVII. GP

Eingelangt am 01.07.2021
Dieser Text wurde elektronisch übermittelt. Abweichungen vom Original sind möglich.

Anfrage

der Abgeordneten Dr. Nikolaus Scherak‚ MA, Kolleginnen und Kollegen

an den Bundesminister für Inneres

betreffend Amnesty International Bericht Gesichtserkennungstechnologie in Österreich

 

Amnesty International veröffentlichte im Mai 2021 einen Bericht zu den menschenrechtlichen Folgen der in Österreich eingesetzten Gesichtserkennungstechnologie (https://www.amnesty.at/media/8397/amnesty_gesichtserkennungstechnologie-in-oesterreich_bericht-mai-2021.pdf). 

Der aktuelle Bericht von Amnesty International über die menschenrechtlichen Risiken zum Einsatz von Gesichtserkennungstechnologien in Österreich zeige laut Amnesty, dass nicht nur der schleichende Übergang in den Regelbetrieb besorgniserregend ist. Es würde derzeit auch keine ausreichende rechtliche Grundlage für den Einsatz der Technologie geben. Laut einer Anfragebeantwortung aus Ihrem Ministerium (2662/AB) in Beantwortung der Anfrage (2648/J) ist das Gesichtserkennungssystem des Innenministeriums trotzdem nach einem mehrmonatigen Probebetrieb mit Anfang August bereits in den Regelbetrieb übergegangen. 

Zusammenfassend hält der Bericht folgende Risiken bei der in Österreich eingesetzten Technologie und der aktuellen rechtlichen Grundlage fest:

Die unterfertigten Abgeordneten stellen daher folgende

Anfrage:



  1. Im Zuge des Einsatzes der Gesichterkennungssoftware werden Bilder eines Gesichtes, wie zum Beispiel Fotos aus Überwachungskameras, mit den Fotos einer Referenzdatenbank der Sicherheitsbehörden („Zentrale Erkennungsdienstliche Evidenz“) abgeglichen. Diese umfasste zum Stichtag 31.12.2019 621.678 Personen (2273/AB). 
    1. Wieviele Bilder sind in der Referenzdatenbank abgespeichert?
    2. Welche Bilder werden in der Referenzdatenbank abgespeichert?
    3. Werden Personen, die in der "Zentralen Erkennungsdienstlichen Evidenz" gespeichert sind, über die Erfassung und Speicherung ihrer Bilder informiert?
    4. Wie kommt das BMI zu diesen Bildern?
    5. Wie stellen Sie sicher, dass sich Personen dagegen aussprechen können, in der „Zentralen Erkennungsdienstlichen Evidenz" gespeichert zu werden?
    6. Ist eine Erweiterung der „Zentralen Erkennungsdienstlichen Evidenz" oder die Ausweitung des Einsatzes des Gesichtserkennungsprogramms auf weitere Datenbanken, wie beispielsweise auf einen Abgleich mit dem Pass- oder Führerscheinregister, geplant?
  1. In Österreich stützt sich der Einsatz von Gesichtserkennungstechnologien auf § 75 SPG. Dieser wird von Amnesty International jedoch als ungeeignet angesehen, eine derartige Technologie ausreichend zu regeln, da der Gesetzgeber bei der Einführung von § 75 SPG keine derartige Software und vor allem nicht deren Risiken vor Augen hatte. Ist § 75 SPG ausreichend, um den Einsatz von Gesichtserkennungstechnologien zu regeln? 
    1. Wenn ja, wie begründen Sie das? 
    2. Wenn nein, ist eine Anpassung des § 75 SPG in Hinblick auf den Einsatz von Gesichtserkennungstechnologien geplant? 
  1. Jeder Eingriff in die Privatsphäre muss gesetzlich vorgesehen sein und auf Basis einer hinreichend klaren Rechtsgrundlage erfolgen. In Österreich reicht bereits der Verdacht des Vorliegens einer vorsätzlichen gerichtlich strafbaren Handlung für die Verwendung des digitalen Bildabgleichs gemäß § 75 SPG aus. Im Sinne der Verhältnismäßigkeit von in die Privatsphäre eingreifenden Maßnahmen sollte jedoch vor Einsatz einer derartigen Software gelindere Mittel gewählt werden. Sind legistische Anpassungen in dieser Hinsicht geplant?
    1. Wenn ja, welche genau?
    2. Wenn nein, weshalb nicht?
  1. Gesichtserkennungstechnologien sind fehlerhaft und bergen das Risiko der Diskriminierung von marginalisierten Gruppen. Eine besondere Rolle spielt in diesem Zusammenhang mit welchen Fotos die von Staaten angekauften Gesichtserkennungsprogramme trainiert werden. Viele Technologien werden meist primär mit Bildern von weißen Männern gespeist. Frauen und Menschen mit anderer Hautfarbe sind in weiterer Folge einem unverhältnismäßigen Risiko ausgesetzt, nicht so exakt erkannt und somit fälschlicherweise identifiziert zu werden. 
    1. Mit welchen Bildern wird/wurde das in Österreich eingesetzte Gesichtserkennungsprogramm trainiert? 
    2. Wurde in der Phase der Programmierung und des Training des in Österreich eingesetzten Gesichtserkennungsprogramms auf die Vermeidung einer Verstärkung von Vorurteilen und strukturellen Ungleichheiten geachtet? 

                                          i.    Wenn ja, inwiefern?  

                                        ii.    Wenn nein, weshalb nicht?

  1. Wie oft ist es in Österreich mittlerweile insgesamt zu Abfragen mithilfe einer Gesichtserkennungssoftware gekommen?
    1. Wie viele Personen (Vergleichsbilder) erscheinen pro Abfrage?