3148/J XXVIII. GP
Eingelangt am 22.08.2025
Dieser Text ist elektronisch textinterpretiert. Abweichungen vom Original sind
möglich.
Anfrage
der Abgeordneten Süleyman Zorba, Freundinnen und Freunde
an den Bundeskanzler
betreffend konkrete Strategien für Frauenförderung und Gendergerechtigkeit in KI und zur Bekämpfung des Gender Bias
BEGRÜNDUNG
Künstliche Intelligenz durchdringt zunehmend unser tägliches Leben. Large Language Modelle (LLMs) werden in Suchmaschinen eingebunden oder direkt als Suchmaschine genutzt. Ihre Outputs beeinflussen unsere tägliche Information ebenso wie KI- gestützte Entscheidungen in Bereichen wie Bildung, Gesundheit und Arbeitsmarkt.
Dabei ist KI trotz ihrer fortschrittlichen Technologie massiv von gesellschaftlichen Vorurteilen, ganz besonders in Bezug auf Geschlecht, belastet und somit verzerrt. Das liegt an diskriminierenden Trainingsdaten ebenso wie an der Tatsache, dass Entwickler-Teams vorwiegend männlich sind. Dieser sogenannte Gender Bias in KI- Systemen ist ein ernsthaftes Problem, das Diskriminierung verfestigen und potenzieren kann. Der sexistische „Berufsinfomat“ des Arbeitsmarktservice (AMS) ist hierfür nur eines von vielen Beispielen, hat er doch Frauen systematisch stereotype Berufsbranchen vorgeschlagen und dadurch Vorurteile und Ungleichheiten auf dem Arbeitsmarkt weiter reproduziert.
Um Geschlechtergerechtigkeit in KI zu erreichen, sind mehrere Maßnahmen notwendig: Trainingsdaten müssen vielseitig und repräsentativ sein, um alle Geschlechter und ethnischen Gruppen angemessen abzubilden. Entwicklungsteams müssen divers zusammengesetzt sein, um unterschiedliche Perspektiven, Erfahrungen und Lebensrealitäten einzubringen. Wesentlich ist insbesondere auch eine kontinuierliche Überprüfung und Anpassung der Algorithmen, um sicherzustellen, dass sie keine diskriminierenden Muster reproduzieren.
Es kann nicht allein gewinnmaximierenden Technologieunternehmen überlassen sein, dass sie KI-Systeme ihrer Annahme nach fair und gerecht gestalten - hier braucht es einen klaren politischen Willen zur Gestaltung und Entwicklung. Das betrifft auf der einen Seite Maßnahmen, um Frauen in KI-Berufen verstärkt zu etablieren. Auf der anderen Seite ist der Gender Bias in bestehenden KI Systemen kritisch zu überprüfen und es sind gezielte Maßnahmen zur Beseitigung von Geschlechterstereotypen und Diskriminierung zu ergreifen. Insbesondere muss auch in der staatlichen Verwaltung Gendergerechtigkeit bei KI-Anwendungen sichergestellt werden.
Dieser Auftrag ist Teil der allgemeinen Digitalisierungsstrategie sowie der Koordination und zusammenfassenden Behandlung in Angelegenheiten der Künstlichen Intelligenz und liegt somit im Aufgabenbereich des Staatssekretärs für Digitalisierung im Bundeskanzleramt. Bislang war aus dem Staatssekretariat zu diesem wichtigen Themenfeld aber nichts zu hören.
Die unterfertigenden Abgeordneten stellen daher folgende
ANFRAGE
1) Welche Definition von Gender Bias in KI verwendet die Bundesregierung aktuell?
2) Gibt es eine einheitliche Strategie zur Erkennung und Vermeidung von Gender Bias in öffentlichen KI-Projekten?
a) Wenn ja, wie gestaltet sich diese Strategie?
b) Wenn nein, wieso nicht?
3) Inwiefern und durch wen wird die Regierung in ihren KI-Projekten zum Themenkreis Gender Bias und gendergerechte Gestaltung beraten?
4) Welche konkreten Programme laufen derzeit, um Frauen und Mädchen für KI- Ausbildung und -Berufe zu gewinnen?
a) Wie hoch sind die dafür bereitgestellten Budgets und wie wurden sie bisher verwendet?
b) Welche konkreten Ziele wurden mit diesen Programmen bisher erreicht?
c) Ist eine Fortsetzung dieser Programme geplant?
5) Gibt es Förderungen für Unternehmen oder Forschungsinstitutionen mit expliziten Gleichstellungszielen im KI-Bereich?
a) Wenn ja, in welcher Höhe und an welche Unternehmen / Forschungsinstitutionen wurden diese Förderungen für welche Projekte vergeben?
6) Wird Forschung zur Frage der Gendergerechtigkeit in KI-Projekten und deren Durchsetzung gefördert?
a) Wenn ja, welche Forschungsprojekte werden in welcher Höhe für welche Projekte gefördert?
7) Gibt es Indikatoren zur Erfolgsmessung der Gendergerechtigkeit in öffentlichen KI-Projekten?
8) Wie wird überprüft, ob staatlich unterstützte KI-Entwicklungen gendersensibel sind?
9) Wie wird sichergestellt, dass staatlich unterstützte KI-Entwicklungen gendersensibel sind?
10)Wie ist die Strategie der Bundesregierung im Hinblick auf KI-Systeme, die bekannte Bias-Probleme aufweisen (z. B. LLM/Sprachmodelle, Scoring-Software etc.)?
11 )Gibt es Pläne zu gendersensibler KI-Bildung in Schulen sowie zu gendersensibler Erwachsenenbildung im KI-Bereich?
12)Werden Erhebungen durchgeführt, welche Rolle Frauenbilder oder Genderstereotype in generativen KI-Modellen (z. B. ChatGPT, Bildgeneratoren) spielen, um in der Regierung auf Fehlentwicklungen legislativ reagieren zu können?