18981/J XXVII. GP

Eingelangt am 27.06.2024
Dieser Text wurde elektronisch übermittelt. Abweichungen vom Original sind möglich.

Anfrage

der Abgeordneten Dr. Nikolaus Scherak‚ MA, Kolleginnen und Kollegen

an den Bundesminister für Inneres

betreffend Folgeanfrage: Falsche Beschuldigung aufgrund fehlerhafter Gesichtserkennung

 

Am 4. Februar 2023 berichtete die Kronen Zeitung über einen schockierenden Fall von Identitätsverwechslung, der durch den Einsatz von Gesichtserkennungssoftware verursacht wurde. Ein Unschuldiger fand sich unerwartet hinter Gittern wieder, nachdem er irrtümlich als Kopf einer kriminellen Bande identifiziert wurde. Diese Bande hatte mit Falschgeld in Supermärkten Lebensmittel und Tiernahrung erworben. Die Polizei nutzte Überwachungsaufnahmen und speiste die Bilder der Verdächtigen in eine KI-basierte Gesichtserkennungsdatenbank ein. Obwohl der Verdächtige von den tatsächlichen Tätern nicht belastet wurde und sich keinerlei Beweise für seine Beteiligung fanden, wurde er aufgrund der fehlerhaften Software-Erkennung auf einer Reise nach Serbien von dortigen Grenzwachbeamten festgenommen und in ein Gefängnis in Serbien gebracht. Erst zwei Monate später wurde er nach Wien überstellt und nach einer Einvernahme, in der sich herausstellte, dass er nicht der Gesuchte war, entlassen.

In Anbetracht solcher Vorfälle ist es unabdingbar, dass verstärkt auf den Schutz der Privatsphäre und die Einhaltung der Rechtsstaatlichkeit geachtet wird. Die Verlässlichkeit von Gesichtserkennungssoftware ist nicht gewährleistet, und die daraus resultierenden Fehlidentifikationen können zu gravierenden Eingriffen in das Leben unschuldiger Personen führen. Dieser Vorfall mahnt zu einer dringenden Überprüfung und Verschärfung der gesetzlichen Bestimmungen hinsichtlich des Einsatzes solcher Technologien. Es ist essenziell, Rahmenbedingungen zu schaffen, die sowohl die Genauigkeit der Technologie überprüfbar machen als auch ihre Verwendung in einem rechtsstaatlich vertretbaren Maß halten.

Wenn Bürger ständig das Gefühl haben müssen, überwacht zu werden, und die Technologie, die zu ihrem Schutz dienen sollte, vielmehr zu einer Quelle der Angst und Ungerechtigkeit wird, dann haben wir es mit einer bedenklichen Entwicklung zu tun. Darüber hinaus ist der geschilderte Fall beispielhaft für das Risiko des Racial Profiling, welches durch die Verwendung von Algorithmen, die auf verzerrten Daten basieren könnten, noch verstärkt wird. Es ist die Aufgabe der Gesetzgebung, nicht nur die technologische Entwicklung zu begleiten, sondern diese auch so zu steuern, dass sie den Menschen dient, anstatt ihre Rechte und Freiheiten zu kompromittieren. Die beschriebene Situation zeigt deutlich, dass es hier Handlungsbedarf gibt. 

NEOS stellten zur falschen Beschuldigung aufgrund der fehlerhaften Gesichtserkennung am 09.02.2024 je eine Anfrage an das BMI (17797/J) und das BMJ (17798/J), die jedoch in weiten Teilen nicht, oder nur unzureichend, beantwortet wurden. Ein Vergleich der beiden Anfragebeantwortungen führte außerdem erhebliche Diskrepanzen hinsichtlich der Übereinstimmungsrate des Bildabgleichs zu Tage. Laut Anfragebeantwortung des BMI (17229/AB) erfolgte am 2. Juni 2023 ein digitaler Bildabgleich des Verdächtigen mit einer Übereinstimmungsrate von 76,54 %. Laut Anfragebeantwortung des BMJ (17230/AB) wurde der Staatsanwaltschaft in einer polizeilichen Auskunft jedoch eine Übereinstimmungsrate von 85 % mitgeteilt, sowie, dass ein Ergebnis von mehr als 80 % bereits als sehr sicher anzusehen wäre. 

 

Quellen:

https://www.derstandard.at/story/3000000215580/kampf-um-entschaedigung-nach-fehler-der-gesichtserkennung

https://www.krone.at/3234784

https://epicenter.works/thema/face-recognition

https://www.amnesty.at/presse/amnesty-fordert-aus-fuer-den-einsatz-von-gesichtserkennungstechnologie/

Die unterfertigten Abgeordneten stellen daher folgende

Anfrage:

 

  1. Laut AB des BMI (17229/AB) erfolgte im oben geschilderten Fall am 2. Juni 2023 ein digitaler Bildabgleich des Verdächtigen. Welche Übereinstimmungsrate des Bildabgleichs (in %) wurde im Anlassbericht der Polizeiinspektion Liezen vom 5. August 2023 festgehalten?
    1. Nach welchen Kriterien erfolgte die Ermittlung der Übereinstimmungsrate des Bildabgleichs im konkreten Fall?

                                          i.    Wurde ein Bild oder mehrere Bilder des Verdächtigen für den Bildabgleich herangezogen, und, in letzterem Fall, wie viele?

    1. Wie hoch war die Übereinstimmungsrate tatsächlich?
    2. Welche Übereinstimmungsrate des Bildabgleichs (in %) wurde der Staatsanwaltschaft im Folgenden mitgeteilt?
    3. Wie kam es zu den unterschiedlichen Übereinstimmungsraten - 76,54 % laut AB des BMI und 85 % laut AB des BMJ - des Bildabgleichs?
  1. Wurde im konkreten Fall die Auskunft an die Staatsanwaltschaft gegeben, dass eine Übereinstimmungsrate von mehr als 80 % bereits als sehr sicher anzusehen sei?
    1. Falls ja, wieso erfolgten im konkreten Fall weitere Ermittlungshandlungen, wenn laut AB des BMI die Übereinstimmungsrate nur bei 76,54 % lag?
    2. Falls nein, welche andere Übereinstimmungsrate wurde genannt, ab deren Erreichung ein Bildabgleich als sehr sicher anzusehen sei?
  1. In der AB des BMI wurde die Anzahl der Einsätze des Gesichtserkennungssystems für die letzten fünf Jahre aufgeschlüsselt, sowie die einzelnen Delikte (nach dem StGB) genannt, bei deren Verfolgung das Gesichtserkennungssystem des BMI genutzt wurde.
    1. Ab welcher Übereinstimmungsrate wurden im Jahr 2023 weitere Ermittlungshandlungen durch die Kriminalpolizei gesetzt? Bitte um Auflistung je Deliktsart.

                                          i.    Welche weiteren Ermittlungshandlungen wurden jeweils gesetzt? Bitte um Auflistung je Deliktsart.

                                        ii.    Gab es Unterschiede zwischen den weiteren gesetzten Ermittlungshandlungen, abhängig von der jeweiligen Deliktsart?

1.    Falls ja: Welche konkreten Unterschiede gab es zwischen den weiteren Ermittlungshandlungen, abhängig von der jeweiligen Deliktsart?

2.    Falls nein: Warum nicht?

    1. Wie sieht die vorgesehene Verhältnismäßigkeitsprüfung für den Einsatz des Gesichtserkennungssystems aus? Bitte um Auflistung je Deliktsart.
  1. In der AB des BMI wurde auf die laufende Evaluierung der Abgleichergebnisse des automatischen Bildabgleichs verwiesen. Kam es zu einer Evaluierung der Treffsicherheit (in %) der Gesichtserkennungssoftware im BMI?
    1. Falls ja, wann und wie oft wurde die Evaluierung durchgeführt?

                                          i.    Welche Erkenntnisse konnten aus der Evaluierung gezogen werden?

                                        ii.    Welche Maßnahmen wurden daraufhin gesetzt?

    1. Falls nein, warum nicht?
    2. Ist eine weitere Evaluierung für die Zukunft geplant?
  1. In der AB des BMI wurde auf die geplante Anbindung des Zentralen Fremdenregisters an das Gesichtserkennungssystem verwiesen. Wie kann sichergestellt werden, dass die Datenverarbeitung, die mit biometrischen Merkmalen verbunden ist, nicht zu Racial Profiling (im Sinne von einem Agieren der Polizei- und Sicherheitsbehörden basierend auf Stereotypen und äußerlichen Merkmalen) führt?
  2. In der AB des BMJ (17230/AB) wurde auf Gespräche im Jahr 2023 zwischen dem BMF, dem BMI sowie dem BMJ hinsichtlich Österreichs Position zum AI-Act verwiesen.
    1. Wie lautete die Position des Bundesministeriums für Inneres?
    2. Welche Ergebnisse konnten in den Gesprächen erzielt werden?