109/A(E) XXVIII. GP
Eingebracht am 07.03.2025
Dieser Text wurde elektronisch übermittelt. Abweichungen vom Original sind
möglich.
ENTSCHLIESSUNGSANTRAG
der Abgeordneten Leonore Gewessler, Kolleginnen und Kollegen
betreffend Digitalen Kinderschutz stärken – gegen Radikalisierung und wirtschaftliche Ausbeutung
BEGRÜNDUNG
Am 14. Februar 2025 verübte ein Messerangreifer einen tragischen Anschlag, bei dem ein Jugendlicher getötet und 5 weitere Personen verletzt wurden. Am 19. Februar 2025 wurde bekannt, dass wenige Tage zuvor eine Hausdurchsuchung bei einem 14-jährigen stattfand, der detaillierte Anschlagspäne für den Wiener Westbahnhof vorbereitet hatte. Im August 2024 mussten die Taylor Swift Konzerte in Wien wegen konkreter Anschlagsgefahr abgesagt werden. Alle diese Fälle hatten eins gemeinsam: die mutmaßlichen Täter und Verdächtigen hatten sich zuvor bei islamistischen Hasspredigern auf Social Media, insbesondere auf TikTok radikalisiert.
Studien und Medienberichte belegen, dass islamistische, aber auch rechtsextreme Inhalte durch Social Media Algorithmen gezielt an junge Nutzer:innen ausgespielt werden. Durch algorithmische Verstärkung entstehen Echokammern – eine Radikalisierungs-Spirale wird in Gang gesetzt[1]. Gerade bei jungen, noch in der Meinungsbildung befindlichen Menschen ist das eine ernsthafte Gefahr. Wie groß der Einfluss der Inhalte auf Kinder und Jugendliche ist, zeigt sich, wenn politische und islamistische Radikalisierung im schlimmsten Fall zu Terroranschlägen führt.
Laut einer Studie der Europäischen Kommission von 2021 nutzen 97% der Kinder und Jugendlichen täglich das Internet[2] und dabei vorrangig soziale Netzwerke. Sie alle werden täglich schädlichen Inhalten ausgesetzt und mit manipulativem Design an Plattformen gebunden. Daten belegen, dass TikTok, Instagram und Co ihre Nutzer:innen gezielt durch sogenannte „Dark Patterns“ beeinflussen, um User-Engagement zu erhöhen, die Nutzungsdauer zu verlängern, noch mehr personenbezogene Daten sammeln zu können und ihre Werbeumsätze so zu maximieren. Das vermehrte Ausspielen von extremistischen Inhalten hält Nutzer:innen auf der Plattform – gut für die Werbeeinnahmen der Social Media Konzerne, schlecht für Nutzer:innen. Teil der wirtschaftlichen Strategie ist auch die frühe Formung von Konsument:innenbeziehungen ab einem sehr jungem Alter. Auf die Sicherheit und Gesundheit der betroffenen Kinder wird dabei keinerlei Rücksicht genommen.
All diese von Social Media Konzernen eingesetzten Methoden sind nicht nur aus demokratie- und sicherheitspolitischen Aspekten höchst gefährlich, sie sind auch schädlich für die körperliche und mentale Gesundheit von Konsument:innen. Sie führen zu Sucht, Angstzuständen, Depressionen sowie Schlaflosigkeit und potentiell verfrühter Neurodegeneration[3], vor allem bei jungen Menschen.
Eine im Auftrag der EU durchgeführte Studie belegt, dass 83 % der Nutzer:innen mehr Zeit auf sozialen Plattformen verbringen, als sie ursprünglich beabsichtigt hatten, was auf suchtähnliches Verhalten hinweist[4]. Eine Eurobarometer-Umfrage ergab, dass 70 % der Konsument:innen besorgt über die Nutzung und Weitergabe ihrer persönlichen Daten sind[5].
Das besonders problematische Tracking von Kindern zu Werbezwecken, das auch durch Datenschutzbehörden mehrfach als unzulässig eingestuft wurde[6], ist unter dem Digital Services Act (DSA) zwar verboten, die Wirksamkeit steht und fällt allerdings mit der unmittelbaren Sanktionierung bei Verletzung der Bestimmungen.
Zwar gibt es mittlerweile vielfach die Möglichkeit, Profiling und Tracking zu deaktivieren, allerdings zeigen wissenschaftliche Erkenntnisse durchgängig, dass Konsument:innen dazu neigen, automatische Voreinstellungen zu übernehmen[7]. Es ist daher entscheidend, dass Voreinstellungen automatisch den bestmöglichen Schutz bieten.
Im Sinne der Sicherheit und Gesundheit von Kindern muss die Standardeinstellung für minderjährige Nutzer:innen sein, dass nicht getrackt, nicht manipuliert und nicht überwacht wird.
Die EU hat sich in den letzten Jahren dem Problem zunehmend angenommen und wesentliche Rechtsakte, wie den Digital Services Act (DSA) und den Digital Markets Act (DMA) verabschiedet, die Rechte von Konsument:innen im Internet schützen sollen. Die Kommission hat dafür zu sorgen, dass die geltenden Gesetze auch effektiv angewandt werden und Schlupflöcher geschlossen werden.
Deshalb fordern wir:
1. Die konsequente Durchsetzung des DSA, insbesondere:
o Transparenzpflichten für Empfehlungssysteme und Algorithmen, um deren Funktionsweise offenzulegen
2. Sofortige einstweilige Maßnahmen gemäß Artikel 70 DSA durch die EU-Kommission bis zum Abschluss bereits eingeleiteter Verfahren, insbesondere:
o die Aussetzung polarisierender algorithmischer Empfehlungssysteme bis zur Klärung der eingeleiteten Verfahren gegen Social Media-Plattformen
3. Strenge Sanktionen gegen Plattformbetreiber, die ihren Verpflichtungen nach dem DSA und DMA nicht nachkommen
4. Den Schutz von Kindern und Jugendlichen im Internet in zukünftigen Rechtsakten (wie dem Digital Fairness Act) stärker zu berücksichtigen, insbesondere muss gelten:
o Profile in den Sozialen Netzwerken sind automatisch auf „privat“ gestellt,
o die Standard Cookie-Einstellung ist, dass nur technisch unbedingt notwendige Cookies aktiv sind, alle anderen sind deaktiviert
o die personalisierte Anzeige von Inhalten ist eingeschränkt um Kindern nicht nur einseitige Informationen und Werbung anzugzeigen – es besteht Meinungsvielfalts- und Ausgewogenheitspflicht.
o suchtfördernde Mechanismen wie Endlos-Scrollen, automatische Videowiedergabe und Push-Benachrichtigungen sind deaktiviert.
Die Durchsetzung dieser Maßnahmen ist essenziell für den Schutz der körperlichen und mentalen Gesundheit von Kindern und Jugendlichen, sowie für die Verhinderung weiterer Radikalisierungsprozesse über Social Media. Ein starkes Schutzsystem in Europa ist notwendig, um sicherzustellen, dass digitale Dienste das Wohl von Kindern respektieren, anstatt kommerzielle Interessen über ihr Wohl zu stellen. Die vorgeschlagenen Maßnahmen orientieren sich an bewährten internationalen Standards und berücksichtigen Empfehlungen von Verbraucherschutzorganisationen und Datenschutzbehörden.
Die unterfertigenden Abgeordneten stellen daher folgenden
ENTSCHLIESSUNGSANTRAG
Der Nationalrat wolle beschließen:
„Die Bundesregierung, insbesondere die Bundesministerin für Soziales, Gesundheit, Pflege und Konsumentenschutz, möge sich auf europäischer Ebene für die Umsetzung eines umfassenden Schutzrahmens für Kinder- und Jugendliche im Internet einsetzen und die unmittelbare Umsetzung der geltenden Bestimmungen einfordern. Das beinhaltet:
· dass die EU-Kommission ohne Verzögerungen die im Digital Services Act (DSA) vorgesehenen regulatorischen Regelungen durchsetzt, insbesondere betreffend die von sehr großen Online-Plattformen („VLOP“ laut DSA) zu treffenden Maßnahmen zur Risikominimierung gem Art 35 DSA sowie betreffend die Verpflichtung zur Offenlegung von Empfehlungssystemen und Algorithmen gem Art 72 DSA,
· sich weiters für die rasche Fortführung der laufenden Verfahren gegen VLOP wie X und TikTok einzusetzen,
· sich dafür einzusetzen, dass die EU-Kommission bei Nicht-Einhaltung der Vorgaben des DSA rasch Konsequenzen setzt und abschreckende Geldbußen verhängt,
· sich bei der EU-Kommission dafür einzusetzen, dass der Schutz von Kindern und Jugendlichen im Internet in zukünftigen Rechtsakten (wie dem Digital Fairness Act) stärker berücksichtigt wird.
In formeller Hinsicht wird die Zuweisung an den Ausschuss für Konsumentenschutz vorgeschlagen.
[1] Amnesty International, 2023 https://www.amnesty.org/en/documents/POL40/7350/2023/en/
[2] European Commission, EU Strategy for the rights of the child, 2021
[3] Europäische Kommission ‘Fitness Check of EU consumer law on digital fairness’, 03/10/2024.
[4] BEUC, Connected but unfairly treated, 09/2023
[5] Europäische Kommission, Q&A on the Digital Fairness Fitness Check, 03/10/2024
[6] Hungarian National Authority for Data Protection and Freedom of Information, Decision on the Processing of Minors' Personal Data for Market Research and Direct Marketing Purposes, 02/2022
[7] BEUC, An effective choice screen under the Digital Markets Act, 19/10/2024