Dialogforum

Soziale Medien als Gefahr für die Demokratie

Transkript

Verfasst von der Abteilung 1.4/2.4 – Stenographische Protokolle

 

 

 

Montag, 26. Februar 2024

13.03 Uhr – 14.53 Uhr

 

 

Elise Richter Lokal 2

Programm

Eröffnungsworte

Wolfgang Sobotka – Präsident des Nationalrates

Grußworte

Heinz Faßmann – Präsident der Österreichischen Akademie der Wissenschaften

Keynote I: „Soziale“ Medien, neue Geschäftsmodelle und die Notwendigkeit von Medienkompetenz

Matthias Karmasin – Direktor des Instituts für vergleichende Medien- und Kommunikationsforschung der ÖAW und der AAU

Keynote II: Soziale Medien, neue Teil-Öffentlichkeiten und verzerrte Diskurse

Stefan Strauß – Senior Academy Scientist, Institut für Technikfolgen-Abschätzung der ÖAW

Keynote III: Herausforderungen für das Recht

Magdalena Pöschl – Professorin am Institut für Staats- und Verwaltungsrecht, Universität Wien

Keynote IV: Empfehlungen der Arbeitsgruppe

Matthias Karmasin – Direktor des Instituts für vergleichende Medien- und Kommunikationsforschung der ÖAW und der AAU

Fragerunde mit der Mitwirkung des Publikums

Podiumsgespräch mit Vertreter:innen der Parlamentsklubs

Nico Marchetti – Abgeordneter zum Nationalrat, ÖVP

Dagmar Belakowitsch – Klubobmann-Stellvertreterin und Abgeordnete zum Nationalrat, FPÖ

David Stögmüller – Abgeordneter zum Nationalrat, Grüne

Henrike Brandstötter – Abgeordnete zum Nationalrat, NEOS

Moderation

Günther Mayr – Leiter der ORF-Wissenschaft


 

Beginn der Veranstaltung: 13.03 Uhr

Günther Mayr (Moderator): Einen schönen Nachmittag, meine Damen und Herren! Wir reden heute über ein Thema, das wahrscheinlich kaum brisanter sein könnte: soziale Medien als Gefahr für die Demokratie. Wir haben Dinge erlebt, die sozusagen über soziale Medien organisiert wurden – die genauere Definition werden wir heute noch konkreter herausarbeiten: warum heißen sie überhaupt sozial; sind sie denn so sozial, wie der Begriff klingt? –, zum Beispiel den Sturm auf das Kapitol in den USA, Versammlungen in Deutschland, auf denen Menschen beschlossen haben, sie wollen die Demokratie als solche abschaffen und Reichsbürger werden, oder wie auch immer. All das sind Dinge, die über das Internet und über solche Foren organisiert, orchestriert werden, und deshalb ist es durchaus angebracht, da von einer Gefahr für die Demokratie zu sprechen.

Wohin würde das besser passen als in jenes Haus, in dem die Entscheidungen mittels Diskussionen – ja, auch mittels Streitereien –, mittels Abstimmungen getroffen werden, so wie das in einer Demokratie üblich ist?

Begrüßen Sie mit mir den Hausherrn, Herrn Nationalratspräsidenten Mag. Wolfgang Sobotka! (Beifall.)

Ich darf auch einen früheren Vizekanzler, Vizekanzler außer Dienst Clemens Jabloner, begrüßen – herzlich willkommen! (Beifall.)

Weiters begrüße ich den früheren Bundesminister und jetzigen Präsidenten der Akademie der Wissenschaften, Dr. Heinz Faßmann – herzlich willkommen! (Beifall.)

Aus den Bundesländern begrüßen Sie mit mir recht herzlich Herrn Landtagspräsidenten Robert Hergovich aus dem Burgenland – herzlich willkommen! (Beifall.)

Last, but not least begrüße ich Herrn Parlamentsdirektor Harald Dossi – herzlich willkommen. (Beifall.)

Das gilt selbstverständlich für alle Anwesenden: alle aktiven und ehemaligen Nationalratsabgeordneten und Mitglieder des Bundesrates, für Sie alle hier, die Sie diesem Thema Ihr Interesse entgegenbringen.

Ich denke, es ist ein wirklich wichtiges Thema, und wir als Journalisten haben damit wirklich selbst sehr viel zu tun. Sie wissen, dass gerade Medien in diesem Bereich, wenn man so will, anfällig sind, da im Internet Gegenmedien erschaffen werden, da dort all das als Journalismus definiert wird, was vielleicht keiner ist. Wir erleben – und das haben wir hier öfter diskutiert – durch künstliche Intelligenz und solche Dinge gerade eine Entwicklung in der Informationsvermittlung, die es sehr, sehr schwierig macht, zwischen Fakten und Fake, wie das jetzt so schön auf Neudeutsch heißt, zu unterscheiden. Die Systeme, die da dahinterstecken, haben natürlich auch wieder Menschen im Hintergrund, die damit viel Geld verdienen – ob das jetzt Suchmaschinen sind, ob das jene Plattformen sind, die Sie alle kennen: Twitter, Facebook, Tiktok und wie sie alle heißen.

Wie ist denn sichergestellt, dass das, was Sie dort an Information bekommen, überprüfbar ist? Das ist sehr, sehr schwierig. Was macht es denn eigentlich mit uns, was macht es mit einer Gesellschaft, die mit so viel Informationen konfrontiert ist und sich immer schwerertut, auseinanderzuhalten: Ist das jetzt eine Meinung, stimmt das jetzt?, und vor allem: Wo kann ich es überprüfen, wer hilft mir beim Überprüfen und bin ich dann schon in der nächsten Schleife im Internet?

Jemand, der sich eingehend mit diesem Thema beschäftigt, ist Matthias Karmasin. Er ist Professor an der Universität Klagenfurt und wird uns jetzt ein bisschen Einblicke dahin gehend geben: Warum heißen sie denn soziale Medien und wer verdient denn eigentlich an den sozialen Medien mit?

Vorher darf ich natürlich den Herrn Nationalratspräsidenten um seine Grußworte bitten. (Beifall.)

Wolfgang Sobotka (Präsident des Nationalrates): Meine sehr geehrten Damen und Herren! Dass uns die digitalen Medien seit geraumer Zeit ganz massiv interessieren, ist keine Neuigkeit. Seit Chat-GPT, GPT-4 und vielen anderen Entwicklungen im Bereich der künstlichen Intelligenz hat das eine zusätzliche Brisanz gewonnen. Dass wir die sozialen Medien, also eigentlich die Plattformen, als Medien begreifen, ist das eine, dass sie aber nicht wie Medien behandelt werden, ist das andere. Das heißt: Die Anonymität – auch immer wieder unter dem Prätext der Meinungsfreiheit – stellt uns gerade in diesen Zeiten vor enorme Herausforderungen.

Wir wissen, dass Jugendliche im Schnitt 9 Stunden in den sozialen Medien verbringen und ihre Informationen fast ausschließlich dort beziehen. Daher gewinnt das Thema für die nächste Generation eine eminente Bedeutung. Dass es in den sozialen Medien eher emotional zugeht und nicht die Kognition den ersten Grund darstellt, ist das eine; dass es im Verhältnis zu Politik letzten Endes auch so ist, dass sich das, was in den sozialen Medien passiert, dann in der Politik widerspiegelt – und nicht umgekehrt: dass die Politik vorgibt, was in den sozialen Medien dann letzten Endes passiert –, ist das andere. Was uns besonders betroffen macht, ist, dass 75 Prozent – und das kommt aus unseren eigenen Studien – der Leute meinen, sie würden die Fakes von den Fakten unterscheiden können, und überhaupt nur 25 Prozent meinen, dass sie davon betroffen sind. Das heißt: Laut Faktenlage ist für uns vollkommen klar, dass das ein Thema ist, das uns nicht nur heute, sondern auch in Zukunft beschäftigen wird.

Ein herzliches Dankeschön gilt der Akademie der Wissenschaften, dir, lieber Herr Präsident, und deinem Team, den Professoren, die sich damit inhaltlich ganz intensiv und nachhaltig in einer großen Studie auseinandergesetzt haben. Sie wird sicherlich nicht die letzte gewesen sein, denn viele Auswirkungen sind in der heutigen Zeit noch gar nicht abschätzbar. Dieses Thema wird uns also in den nächsten Jahren massiv begleiten. Damit geht auch immer die Frage einher: Welche Auswirkungen hat all das auf die Entscheidungsträger in der Politik?

Daher sage ich auch ein herzliches Dankeschön an unsere Abgeordneten zum Nationalrat, die heute hier sind, später als Sprecher ihrer Parteien diskutieren und das ganz Wesentliche auch mitnehmen.

Das ist im Interesse aller 183 Abgeordneten und nicht nur einzelner Fraktionen. Das ist für uns ganz wesentlich, weil es alle betrifft – deshalb seien Sie auch herzlich begrüßt. Damit darf ich das Wort an den Moderator beziehungsweise an Heinz Faßmann weitergeben. (Beifall.)

Heinz Faßmann (Präsident der Österreichischen Akademie der Wissenschaften): Sehr geehrter Herr Präsident! Hohes Haus! Meine Damen und Herren! Ich freue mich sehr, hier zu sein und bekannte Persönlichkeiten wiederzusehen. Ich persönlich habe die Auseinandersetzungen im Parlament immer geschätzt. Sie fördern das eigene Denken und man ist auch oft mit anderen Realitäten konfrontiert, die man selbst gar nicht im Fokus hat.

Wir haben in der Akademie der Wissenschaften, in unserer Gesamtsitzung, natürlich auch immer Diskussionen. Das ist mit dem Plenum vergleichbar, aber vielleicht mit weniger Zwischenrufen und mit einem höheren Ausmaß an akademischer Distanz, aber auch mit Leidenschaft, denn auch wir versuchen immer, den anderen, die andere zu überzeugen.

Apropos Akademie: Ich nehme die Gelegenheit der Grußworte wahr, um etwas über die Akademie zu sagen. Sie ist 1847 gegründet worden. Der Orientalist Hammer-Purgstall war ihr erster Präsident – zum Missfallen Metternichs, der einen anderen Kandidaten durchsetzen wollte. Daran musste sich Metternich gewöhnen: Die Akademie konnte nicht durch ihn gesteuert werden, Sie war eine obrigkeitsferne Gelehrtenrepublik, eigenständig, selbstverantwortet und autonom. Das hat sich bis heute nicht verändert.

Wir bekommen ein Budget für jeweils drei Jahre aus der Leistungsvereinbarung. Wie wir dieses Geld verwenden, mit welchen Themen wir uns auseinandersetzen und wen wir beispielsweise in das Präsidium der Akademie wählen, ist Sache der Gelehrtengesellschaft, nicht der Politik. Ich denke, das ist ganz gut so.

Ich bleibe noch für ein Wort bei der Akademie. Sie ist ja so etwas wie eine Gelehrtengesellschaft – wie die deutsche Leopoldina. Sie ist Forschungsförderer und Forschungsträger wie die deutsche Max-Planck-Gesellschaft. Die Gelehrtengesellschaft zählt rund 700 Mitglieder, aktuell haben zwölf davon einen Nobelpreis. Als Forschungsförderer unterstützen wir insbesondere junge Talente österreichweit, damit sie ihren eigenen Weg finden können. Als Forschungsträger finanzieren wir 26 Forschungsinstitute, die in Ephesos graben, die Habsburgermonarchie analysieren oder Quanteneigenschaften entschlüsseln.

Darüber hinaus setzen wir uns mit gesellschaftspolitisch wichtigen Fragen auseinander. Gesellschaft und Politik zu beraten, zählt auch zur Aufgabe der Akademie der Wissenschaften.

Wir beraten aber eben nicht aus einer weltanschaulichen Perspektive, sondern aufgrund von wissenschaftlichen Fakten und Erkenntnissen. Wir wollen dabei auch so etwas wie eine Äquidistanz zu den politischen Parteien halten, denn Tagespolitik zählt nicht mehr zu meinem, zählt nicht zu unserem Geschäft. Ich bin nicht so unglücklich darüber.

Politische Beratungstätigkeit ist nicht immer einfach. Manchmal geht uns auch vor lauter Begeisterung das Herz über. Wissenschaftler ziehen dann den Rock des Politikers an und postulieren politische Maßnahmen. Sie sagen nicht: Die Maßnahme X hat diese Folgen, die Maßnahme Y jene Folgen, und die Politik soll entscheiden!, sondern sie sagen dann: Die Maßnahme X muss umgesetzt werden! Das würden wir, würde ich als eine gewisse Grenzüberschreitung sehen.

Wir betonen, ganz im Sinne von Max Weber, die strikte Trennung von Wissenschaft und Politik. Wir sagen, Wissenschaft soll die Politik informieren und ihr Handlungsoptionen aufzeigen, aber die Politik muss die Verantwortung der Entscheidung übernehmen. Wir haben diese Prinzipien übrigens zusammen mit der deutschen Nationalstiftung Leopoldina in den sogenannten „Wiener Thesen zur wissenschaftsbasierten Beratung von Politik und Gesellschaft“ zusammengefasst.

In diesem Sinne hat Wolfgang Sobotka – der Nationalratspräsident ist in der Akademie ex officio auch der Vorsitzende unseres Senats – angeregt, über die Frage von sozialen Medien und Demokratie systematisch nachzudenken, nicht darüber zu entscheiden – das können wir auch gar nicht –, aber Folgen und Wirkungen aufzuzeigen.

Weil ich diese Frage für extrem wichtig erachte, habe ich sie aufgegriffen und die Gelehrtengesellschaft gebeten, sich damit auseinanderzusetzen. Wir haben dann eine Ad-hoc-Arbeitsgruppe ins Leben gerufen und in relativ kurzer Zeit eine Analyse durchgeführt und über mögliche Handlungsoptionen nachgedacht, wobei die Analyse stärker ist, würde ich mal meinen, als die Handlungsoptionen. Aber das wird eben nachher klar werden. Das war möglich, weil die Mitglieder dieser Arbeitsgruppe ausgewiesene Experten und Expertinnen in ihren Bereichen sind: Matthias Karmasin, Stefan Strauß, Magdalena Pöschl, Sonja Puntscher Riekmann, Michael Rössner, Ivona Brandić und Barbara Prainsack.

Diese Ergebnisse liegen nun vor, auch gedruckt – wie es guter Brauch ist –, und Sie können nachher ein Exemplar mitnehmen, wenn Sie daran interessiert sind. Wir haben dieses Papier selbstverständlich auch in unseren sozialen Medien zur Veröffentlichung freigegeben. Sind soziale Medien eine Gefahr für die Demokratie? – Das Ergebnis ist eindeutig: Ja, sie sind eine Gefährdung. Die Begründung dafür liefert das nachfolgende Panel.

In diesem Sinne danke ich Ihnen, meine Damen und Herren, für Ihr Interesse an dieser Veranstaltung und für Ihr Interesse an der Akademie der Wissenschaften. Unserer Arbeitsgruppe gilt ganz besonderer Dank dafür, dass sie in so kurzer Zeit eine, glaube ich, sehr profunde Analyse vorgelegt hat. – Herzlichen Dank. (Beifall.)

Günther Mayr: Vielen Dank an beide Präsidenten!

Herr Faßmann, Sie sind ja einer, der beide Seiten kennengelernt hat. Es ist immer spannend, Sie in Ihrem Spannungsfeld zu erleben. Ich möchte gar nicht wissen, was manchmal in Ihnen vorgeht. Es ist sicher sehr kompliziert. Ich finde auch das Teamwork innerhalb der Akademie, das Sie angesprochen haben, sehr gut, mit der Initiative des Herrn Nationalratspräsidenten.

Weil ich gerade Handys gehört habe, eine kurze Geschichte, die ich Ihnen aus meiner Welt erzählen will: Vor mehr als 30 Jahren habe ich Entwickler bei Nokia, einem damals großen Handyproduzenten, getroffen. Die haben mir gesagt, dieses Ding – wir waren ja damals stolz, dass man damit telefonieren kann – werde vielleicht irgendwann ganz andere Dinge können, vielleicht fotografieren, vielleicht Daten oder Nachrichten übermitteln. Man konnte sich das kaum vorstellen.

Wenn Sie – so wie ich – mit der U-Bahn hergefahren sind, haben Sie gesehen, dass 80 Prozent oder so im U-Bahn-Waggon das (der Redner macht eine Geste, als würde er ein Smartphone bedienen) machen. Da sieht man, wie weit das gediehen ist. Das bedeutet ja nicht, dass das unbedingt schlecht sein muss. Die Menschen spielen vielleicht auf den Handys, aber sie sammeln auch Informationen. Wie überprüfe ich die Informationen, die alle übers Handy hereinbrechen?

Das sind Dinge, mit denen unglaublich viel Geschäft gemacht wird. Deshalb ist es wichtig, und das hören wir immer wieder auch von wissenschaftlicher Seite, dass eine Medienkompetenz herrschen sollte, dass Menschen wissen, was da auf sie zukommt, dass sie zumindest ein Werkzeug in die Hand bekommen, mit dem sie ungefähr beurteilen können, wo die wirklich gefährliche Desinformation beginnt, wo man eigentlich nur mehr Passagier einer Nachrichtenflut ist, die man gar nicht mehr kontrollieren kann.

Jetzt darf ich Matthias Karmasin vorstellen: Er hat sich aus wissenschaftlicher Sicht sehr eingehend damit beschäftigt. – Ich bitte Sie um Ihre dementsprechenden Ausführungen: Was bedeutet denn soziales Medium und wer verdient da? (Beifall.)

Matthias Karmasin (Direktor des Instituts für vergleichende Medien- und Kommunikationsforschung der ÖAW und der AAU): Meine sehr verehrten Damen und Herren! Ich versuche, in 10 Minuten eine Antwort auf eine komplexe Frage zu geben. Die Frage, die dieser Arbeitsgruppe – Präsident Faßmann hat uns vorgestellt – gestellt wurde, war: Gefährden soziale Medien unsere Demokratie? Wir haben das recherchiert, wir haben den Stand der Forschung gesichtet und haben das in der Arbeitsgruppe über die Disziplinengrenzen hinweg sehr intensiv diskutiert. Die kurze Antwort lautet: Ja.

Einige Differenzierungen hinter dieser kurzen Antwort möchte ich in meinem Eingangsstatement anbieten. Erstens geht es in unserer Stellungnahme um Effekte auf demokratische Öffentlichkeit. Dass es Effekte der sozialen Medien auf psychische Gesundheit, auf Körperwahrnehmung, auf Mobbing, Aggression und so weiter, ebenso wie physiologische Auswirkungen auf das Gehirn selbst gibt, ist zwar ebenfalls empirisch gut abgesichert, hängt aber nur teilweise mit der Antwort auf unsere Frage zusammen.

Zweitens: Unter sozialen Medien beziehungsweise unter – wie wir das formulieren würden – sogenannten sozialen Medien verstehen wir Intermediäre, also Unternehmen, die eine Vermittlerfunktion zwischen Nutzer:innen und Inhalten einnehmen – digitale Plattformen, wenn Sie so wollen.

Diese Plattformen sind in den meisten Fällen kostenfrei. Sie generieren Erlöse primär durch den Verkauf von personalisierten Werbeeinschaltungen – targeted advertising – und sekundär durch den Verkauf von Daten zum Verhalten der User der Plattform. Die hinter den Selektionsmechanismen der Inhalte stehenden Algorithmen richten sich also auf die Optimierung der Rentabilität dieser beiden Aspekte: Werbung, Datamining.

Dies führt dazu, dass im Wettbewerb um Aufmerksamkeit und damit um Einnahmen die demokratische Relevanz, die Meinungsvielfalt, die Faktentreue, die professionelle Erstellung der Inhalte, aber auch die Authentizität eine sekundäre Rolle spielen – wenn sie überhaupt eine Rolle spielen. Damit ist, denke ich, das Problem schon umrissen, denn diese sogenannten sozialen Medien werden eben nicht nur zur Unterhaltung genutzt, sondern auch zur Information. In manchen Teilen der Bevölkerung, vor allem für das Alterssegment zwischen 18 und 24 Jahren, sind sie sogar die Hauptnachrichtenquelle. Das gilt weltweit, in Europa und auch in Österreich.

Die Quellen der sozialen Medien wechseln sehr stark. Aktuell stehen in Österreich Instagram, Youtube und Tiktok ganz oben, aber das ändert sich im Zeitverlauf relativ schnell. Medien mit journalistischem Anspruch sind zwar auch in den sozialen Medien präsent, ihre professionell erstellten Inhalte stehen aber neben anderen – als ob sie gleichwertig und gleich solide recherchiert würden. Dass nebenbei die Ansprüche an Verantwortung, Wahrhaftigkeit und Faktentreue auch in den sogenannten legacy media, in den sogenannten traditionellen Medien, unter Druck stehen, ist nicht nur, aber auch auf die Erlösabflüsse zu den großen Plattformen zurückzuführen.

Was bewirkt das nun? Auch das möchte ich in ein paar Minuten ganz kurz skizzieren. Das Feuilleton ist sich einig und auch Buchpublikationen der jüngeren Zeit – „Big Tech muss weg!“, „Massenradikalisierung“, „Alles und nichts sagen“, um nur einige rezente Titel zu nennen – beschreiben das, aber – das ist unsere Quelle – auch die hochrangig publizierten wissenschaftlichen Metastudien, also Studien, die Studien kompilieren und zusammenfassen. Sie finden dort auf dem Tisch in der „Akademie im Dialog“ all diese Quellen zum Nachlesen.

In Kürze: Auch wenn es in Autokratien und Emerging Democracies durchaus positive Effekte der sozialen Medien auf Information und Partizipation gibt – auf liberale repräsentative Demokratien wie Österreich haben soziale Medien verstärkt negative Auswirkungen. Das Vertrauen in Politik, aber auch in Demokratie und Wissenschaft nimmt ab, Populismus, Polarisierung und Emotionalisierung nehmen zu. Die Zunahme an Informations- und Kommunikationsmöglichkeiten bedingt eben nicht eine Zunahme des gemeinsam geteilten Wissensraums.

Der Doyen der deutschen Demokratietheorie, Volker Gerhardt, resümiert – ich zitiere –: „So gesehen muss die digitale Kommunikation tatsächlich zu den großen Menschheitsbedrohungen gerechnet werden: Sie verroht die Menschen, zerrüttet ihren kommunikativen Umgang, eröffnet Möglichkeiten zur grenzenlosen Simulation und Irreführung und kann Handlungszwänge zur wechselseitigen Selbstzerstörung auslösen.“

Deutlich wird dies auch in Österreich – nicht an einer generellen Spaltung der Gesellschaft, aber an sogenannten Triggerpunkten der Auseinandersetzung. Ich nenne nur einige wenige: Klimakrise, Impfen, Mobilität, Gentechnik und Energiewende. Diese Triggerpunkte der Auseinandersetzung stehen mannigfachen Formen der Empörungsbewirtschaftung, aber auch der Manipulation offen.

Warum? – Passive Nutzung heißt nicht aktive Teilnahme. Nur knapp unter einem Viertel der User:innen postet zu aktuellen Nachrichten. Besonders häufig melden sich Vertreter:innen der extremen Ränder in den sozialen Medien zu Wort, und – den Algorithmen geschuldet –: je radikaler, je negativer, desto mehr Aufmerksamkeit, desto mehr Interaktion und Verweildauer und – Sie ahnen die Pointe –, da Aufmerksamkeit und Verweildauer positiv mit der Profitabilität der Plattform korrelieren, desto mehr Umsatz für die Plattform. Sie wissen ja alle: Wir reden hier über Milliarden und nicht Millionen.

Ich fasse zusammen: Das Versprechen der Meinungsvielfalt, der Partizipation oder gar der Demokratisierung der Kommunikation – diese Hoffnungen wurden in den algorithmisch gesteuerten Echoräumen nicht nur nicht eingelöst, sondern paradoxerweise in manchen Diskursen in ihr Gegenteil verkehrt, so radikal, dass manche Menschen gar nicht mehr teilnehmen möchten: Selfsilencing, man will sich dem gar nicht mehr aussetzen, weil der Diskurs so irrational und verletzend ist, dass man sich komplett zurückzieht oder auch Nachrichten komplett vermeidet, News Avoidance und News Deprivation , wenn es überhaupt echte Menschen sind, denn immer mehr kommen Chatbots und Artificial Intelligence auf Basis gefälschter Accounts zum Einsatz.

Die Möglichkeiten zur Teilnahme und Teilhabe an einer gemeinsam geteilten demokratischen Öffentlichkeit auf Basis eines gemeinsamen Wissensraums sind auch genau deswegen wichtiger denn je, meinen manche.

Ich möchte mit zwei kurzen Zitaten schließen. Eines ist vom wohl prominentesten Chronisten des Strukturwandels der Öffentlichkeit, Jürgen Habermas, der 2021 zusammenfasste – ich zitiere –: „In einer schwer vorstellbaren ‚Welt‘ von Fake News, die nicht mehr als solche identifiziert, also von wahren Informationen unterschieden werden könnten, würde kein Kind aufwachsen können, ohne klinische Symptome zu entwickeln. Es ist deshalb keine politische Richtungsentscheidung, sondern ein verfassungsrechtliches Gebot, eine Medienstruktur aufrecht zu erhalten, die den inklusiven Charakter der Öffentlichkeit und einen deliberativen Charakter der öffentlichen Meinungs- und Willensbildung ermöglicht.“

Genau deswegen verlangen diese neuen Geschäftsmodelle auch nach mehr Kompetenz: sozusagen Medienkompetenz 2.0. Mit Herfried Münkler in seinem Text von letztem Jahr zur „Zukunft der Demokratie“ – ich zitiere –: „In der liberalen Demokratie tritt die Medienkompetenz der Bürgerinnen und Bürger an die Stelle der in autoritären Regimen herrschenden Kontrolle und Zensur der Nachrichtenverbreitung.“ Die liberale Demokratie gründet auf der Vorstellung, dass die Menschen weitgehend selbst entscheiden können und müssen, was Wahrheit und was Lüge ist. Das ist keine Nebensächlichkeit, denn an „der Medienkompetenz der Bürgerinnen und Bürger, an ihrer Fähigkeit, Wahrheit und Lüge in nichtkuratierten Medien, zumal im Internet, zu unterscheiden, hängt die Zukunft der Demokratie“. – Zitatende. (Beifall.)

Günther Mayr: Eindringliche Worte – also Medienkompetenz als Voraussetzung für eine funktionierende Demokratie. Die Frage ist eben: Wie bringt man die Menschen, uns alle, in die Lage, da noch unterscheiden zu können? Empörungsbewirtschaftung ist ein schönes Wort, das sehr eingängig ist und bei dem man sich sofort vorstellen kann, worum es geht.

Das Ganze orchestriert sich dann eigentlich von selbst. Wir haben in der Pandemie – ich werde Sie nicht wieder lange mit dieser Pandemie quälen – gesehen, dass es international zehn bis zwölf Homepages waren, die sich immer wieder gegenseitig bestätigt, referenziert haben, und sich das immer wieder im Kreis gedreht hat.Die Algorithmen sind in der Tat anfällig, immer wieder das zu bringen, was man eben sucht – nicht umsonst gehen damit Marketinginstrumente einher. Warum kommt, wenn man zum dritten Mal Autoreifen, oder was auch immer Sie wollen, sucht, das dann plötzlich auf einer ganz anderen Ebene daher, sodass wir uns fragen, wie denn das jetzt wieder geht? Das heißt, Datamining ist in der Tat etwas, was Hand in Hand mit Desinformation geht, also es ist wirklich schwierig zu unterscheiden.

Es entstehen auch sogenannte Teilöffentlichkeiten, in denen sich Menschen eben fühlen, als wären sie in einer quasi eigenen Demokratie, und in denen sie unter Umständen den Eindruck bekommen, dass es ja eigentlich gar nicht notwendig ist, die Auseinandersetzung in großen Strukturen wie Parlamenten, wie politischen Parteien zu führen, sondern in denen man sich immer gegenseitig und selbst bestätigt und den Eindruck hat, dass das ja dann auch stimmen muss.

Stefan Strauß hat sich für die Akademie der Wissenschaften genau mit diesen Themen beschäftigt und hat auch gemeinsam mit Prof. Karmasin herausgearbeitet, wo die Anfälligkeiten dieser Systeme liegen. – Ich bitte um Ihren Vortrag. (Beifall.)

Stefan Strauß (Senior Academy Scientist, Institut für Technikfolgen-Abschätzung der ÖAW): Schönen guten Nachmittag! Sehr geehrte Damen und Herren! Es wurde schon einiges angesprochen, es ist eine perfekte Überleitung, denke ich. Ich gebe Ihnen jetzt einen kurzen Überblick darüber, wie soziale Medien zur Verzerrung von Diskursen beitragen und welche gesellschaftspolitischen Folgen das hat.

Vielleicht noch einmal ganz kurz zu den Anfängen der sozialen Medien: Anfang, Mitte der 2000er-Jahre feierte man ja soziale Medien noch sehr euphorisch als neue Wegbereiter für mehr Demokratie, mehr Meinungsfreiheit. Unbestritten gibt es dafür auch einige Beispiele, wie aus der Zivilgesellschaft heraus neue Teilöffentlichkeiten entstanden sind. Allerdings impliziert das weder, dass es eine politische Wirksamkeit gibt, noch, dass demokratische Grundsätze eingehalten werden; es geht ja primär einmal um Sichtbarkeit.

Spätestens seit Donald Trumps strategisch destruktiver Twitter-Politik und diversen Spielarten der Onlineaggression – da haben wir schon etwas dazu gehört – wissen wir, dass diese Euphorie gebrochen ist, und, nicht zu vergessen, auch der Datenskandal um Cambridge Analytica hat uns aufgezeigt, wie soziale Medien aktiv zur Meinungsmanipulation genutzt werden.

Das heißt, soziale Medien sind vieles, aber sie sind vor allem auch eines, nämlich sehr, sehr ambivalent. Sie sind zwar Nährboden für neue Teilöffentlichkeiten, aber sie erzeugen auch ein sehr stark verzerrendes Bild der gesellschaftspolitischen Wirklichkeit. Sie sind also Zerrspiegel im wahrsten Sinne des Wortes. Untersuchungen zeigen, dass die Art der Inhaltsaufbereitung Filterblasen, Echokammern verstärken kann, und das wiederum begünstigt einen sogenannten Confirmation Bias – das ist ein bisschen das, was Herr Mayr gerade angesprochen hat – und kognitive Verzerrung, also dass sich aufgrund des Mangels an anderen Positionen, anderen Standpunkten vorgefertigte Meinungen weiter verstärken können; und das ist halt durchaus algorithmisch verstärkbar.

Damit sind soziale Medien eben auch Nährboden für starke Polarisierung und das Befördern extremerer Positionen. Um zu verstehen, warum das der Fall ist und was das für die Demokratie bedeutet, braucht es zunächst einmal einen genaueren Blick auf die Funktionslogiken sozialer Medien. Kollege Karmasin hat es schon angesprochen: Soziale Medien waren nie wirklich als soziale Kommunikationsmittel konzipiert, sondern als kommerzielle Plattformen für personalisierte Werbung. Das blieb relativ lange unbeachtet und wirkt heute folgenschwer.

In dieser Funktionslogik sind Menschen vor allem einmal eines: mittels Algorithmen kategorisierte Werbesubjekte. Soziale Medien bilden umfassende Benutzerprofile, wie wir wissen, inklusive Persönlichkeitsmerkmale, Interessen, politischer Einstellungen, und sämtliche Interaktionsmuster werden dabei miterfasst. Es wird sozusagen ein sehr großer Datenkorpus ad personam aufbereitet, und dieser dient dann auch dazu, dass man sehr heruntergebrochen auf individuelle Persönlichkeitsmerkmale zielgruppengerecht Informationen aufbereiten und Inhalte sozusagen verbreiten kann. Das geschieht in der Regel ohne Wissen der Betroffenen und ist wesentlich intrusiver als herkömmliche Werbepraktiken.

Beworben werden so, wie wir wissen, nicht nur Produkte, sondern eben auch politisch motivierte Inhalte aller Art. Die Qualität wäre genau dabei umso wichtiger, hat aber keine Priorität, primär zählt die Quantität, also der Vernetzungsgrad, die Reichweite und die Sichtbarkeit. Das ist algorithmisch so vorgesehen: Inhalte mit mehr Followern, mehr Likes et cetera haben zum Beispiel mehr Reichweite. In Kombination dieser beiden Faktoren, Personalisierung und rein quantitative Distributionslogik, lassen sich Inhalte daher weitgehend beliebig breit streuen, relativ frei von Qualitätskriterien wie Authentizität, Faktizität und Sachgehalt.

Mit anderen Worten, soziale Medien sind primär Marktplatz für Aufmerksamkeit – das haben wir von Kollegen Karmasin schon gehört –, und diese ist neben Daten sozusagen die Hauptwährung, die algorithmisch automatisiert gehandelt wird. Auf der inhaltlichen Ebene ergibt sich daraus eine Kluft zwischen echter, sachlicher Information auf der einen und rein repräsentativer Scheininformation auf der anderen Seite. Soziale Medien begünstigen damit schon im Design eher Letztere, also eine oft pathetische, emotionalisierende oder auch provozierende Inhaltsvermittlung, die oftmals – nicht immer, aber oftmals – auf Kosten der Sachlichkeit geht.

Der Einwand wäre berechtigt: Was ist daran neu? – Ich würde sagen, daran ist in der Sache, in der Art der Kommunikation nichts neu. Was aber neu ist, ist die Art des Diskursraumes, und das macht da einen wesentlichen Unterschied. Soziale Medien sind nämlich hybride, semiöffentliche Sphären, aber systemisch betrachtet sind sie nicht offene, sondern geschlossene Systeme. Was bedeutet das? – Das bedeutet, dass sie im Design Informations- und Machtasymmetrien begünstigen, wodurch sich Echokammern , mit denen sich die Diskursverzerrung sozusagen algorithmisch verstärken lässt.

Dieses Problem war technisch-konzeptionell immer da, es blieb aber relativ lange unbeachtet, bis soziale Medien dann zu dem Massenphänomen wurden, das sie heute sind, in dem sich alle möglichen wirtschaftlichen, politischen und sozialen Interessen voneinander relativ untrennbar vermischt haben. Benutzerdaten wie Inhalte werden weitgehend unkontrolliert ausgewertet – nicht nur von den Plattformen wohlgemerkt, sondern auch von den Akteuren, die sie nutzen. Das ist ein sehr wichtiger Punkt.

Das heißt, in sozialen Medien gibt es keine sehr klare Trennung zwischen Privatsphäre und Öffentlichkeit mehr, das vermischt sich. Diese Vermischung von öffentlichen und privaten Inhalten erschwert aber zusätzlich den Meinungsaustausch und demokratische Diskurse. Warum? – Demokratie braucht nicht geschlossene und selektiv-manipulative, sondern grundrechtskonforme, offene Diskursräume.

Wie sich über soziale Medien Diskurse kapern lassen, ist vielfach dokumentiert. Das geschieht nicht nur über die Außenkommunikation, sondern eben auch im Hintergrund durch automatisierte Accounts, jetzt immer mehr AI, also Bots, oder auch Trollfabriken, um gezielt beeinflussende Inhalte zu streuen.

Ein mehrjähriges Forschungsprojekt der Universität Oxford zu Onlinepropaganda hat ganz gut dokumentiert, wie staatliche Akteure, darunter unter anderem auch Russland, große Mengen an Bots eingesetzt haben, um Desinformationskampagnen zu fahren und Manipulation sozusagen im großen Stil zu betreiben. Es gibt auch wesentlich gelindere Mittel, zum Beispiel Dark Posts oder auch Dark Ads oder auch Dark Patterns, die sozusagen ermöglichen, dass man Inhalte sehr spezifisch streuen kann. Damit tragen soziale Medien zur Fragmentierung der Öffentlichkeit bei, mit der algorithmischen Logik sozusagen, indem man dann etwa Meinung manipulieren, beeinflussen oder Diskurse zerstreuen kann.

Es ist nicht gesagt, dass das immer passiert, das ist auch ein wichtiger Punkt. Wie wirksam diese Manipulation ist, etwa um das Wahlverhalten zu beeinflussen, ist umstritten, das lässt sich sehr, sehr schwer belegen. Demokratiepolitisch relevant ist allerdings nicht erst die Wirksamkeit, sondern bereits der Versuch. Das bedeutet, dass Akteure eben mit unlauteren Methoden gezielt versuchen, Diskurse zu manipulieren.

Ein sichtbarer Effekt, und das ist vielleicht ein wichtiger Punkt, ist die steigende Verunsicherung bei den Rezipienten, also in der Bevölkerung. Die Sorge vor Desinformation wächst, das zeigen Studien, beispielsweise auch Eurobarometer oder eine Studie der Bertelsmann Stiftung, wonach über 54 Prozent der EU-Bürger:innen unsicher sind, ob Information im Netz wahr oder falsch sind. Fast 40 Prozent geben an, Desinformation schon bewusst wahrgenommen zu haben.

Das heißt, diese Sorge vor Desinformation ist Teil eines größeren Problems, nämlich der starken Polarisierung und Fragmentierung öffentlicher Diskurse, begünstigt durch soziale Medien, zulasten der Qualität der öffentlichen Meinungsbildung. Die wesentliche Ursache dafür liegt in der Kombination von zwei Faktoren: erstens der Funktionslogik sozialer Medien und zweitens dem mangelhaften Umgang damit – also fehlender Transparenz und Kontrolle dieser Funktionslogiken im öffentlichen Diskurs; das ist der zentrale Punkt.

In sozialen Medien gibt es kaum Mechanismen zur Kontrolle manipulativer Inhalte oder auch Werbung. Es ist sozusagen weitgehend unklar: Was ist authentische, was ist soziale Kommunikation? Was ist Meinung? Was ist politische Ideologie? Was sind Inhalte mit klarer Beeinflussungsabsicht, was sind die Grate dazwischen? In klassischen Medien mit einem gewissen Qualitätsanspruch ist das zumindest ein Stück weit klarer, aus mehreren Gründen: Erstens gibt es Kontrollgremien wie zum Beispiel Werbe- und Presseräte, Selbstregulierung und damit das relativ konsensuale Bekenntnis zur Einhaltung gewisser Qualitätskriterien. Zweitens gibt es zumindest rechtliche und ethische Grenzen der Beeinflussung, die zu achten sind, Stichwort Schleichwerbung. Drittens gibt es etablierte Diskursnormen und institutionelle Vermittlungsinstanzen, also Gatekeeper.

Diese institutionelle Vermittlung durch unabhängige, pluralistische Medien oder auch andere Institutionen ist ein sehr zentraler Bestandteil der Demokratie. Sie ist essenziell, damit Diskursnormen, also die Spielregeln bei der Aushandlung politischer Standpunkte, weitgehend eingehalten werden.

Demokratie braucht eben auch Objektivierungsmechanismen und Diskursnormen. In sozialen Medien gibt es das jedoch kaum – umso vielfältiger sind dann auch die Möglichkeiten für Manipulation oder intransparente Verbreitung diverser Inhalte, getarnt als soziale Kommunikation und vorbei an öffentlicher Aufsicht und ohne kritische Auseinandersetzung.

Die Folge daraus ist, dass nicht nur online, sondern auch in der realpolitischen Öffentlichkeit eine wachsende Unüberschaubarkeit der politischen Auseinandersetzung beobachtbar ist – kurzum: Polarisierung und verzerrte Diskurse.

Es wäre demokratiepolitisch vernachlässigbar, wenn es zu einer demokratischen Entzerrung und Versachlichung käme. Durch das Umgehen demokratischer Objektivierungsmechanismen und Diskursnormen bleibt aber genau das oftmals aus, daher besteht die Gefahr, dass aus verschiedenen Echokammern ein größeres demokratiepolitisches Vakuum entsteht – mit anderen Worten: Demokratie im luftleeren Raum.

Um den demokratiepolitischen Gefahren sozialer Medien wirksam zu begegnen, braucht es daher neben Klarheit über deren Funktionsweisen auch neue Ansätze zur Stärkung einer vernunftbasierten Debattenkultur und das bewusste Bekenntnis aller Akteure, die auch soziale Medien nutzen, demokratische Diskursnormen unabhängig vom Medium zu achten. Dazu zählt auch der Relativismus.

Ich zitiere hier Hans Kelsen, den Vater der Verfassung, der betonte: „Wer absolute Wahrheit und absolute Werte menschlicher Erkenntnis für verschlossen hält, muss nicht nur die eigene, muss auch die fremde, gegenteilige Meinung zumindest für möglich halten. Darum ist der Relativismus die Weltanschauung, die der demokratische Gedanke voraussetzt.“

Danke für Ihre Aufmerksamkeit. (Beifall.)

Günther Mayr: Vielen Dank, Herr Strauß!

Es ist also ein schwieriges Kapitel: Was soll denn eigentlich im Sinne der Meinungsfreiheit möglich sein? Jeder möchte sich im Internet auch anonym bewegen können. Auf der anderen Seite wissen wir, wozu das dann führt.

Es ist auch die Frage – und das, finde ich, ist ein sehr interessanter Aspekt –: Ist der Versuch eigentlich schon sanktionierbar, so wie wir es mit diesen berühmten russischen Bots erlebt haben – so sagt man zumindest, das Internet –, wo versucht wurde, auf die amerikanische Wahl Einfluss zu nehmen, indem man Bots, also sogenannte selbstkreierende Accounts und angebliche Menschen, für gewisse Dinge einsetzt. Man kann sich vorstellen, was da alles in einer Situation, vor der wir jetzt stehen, wie in einem Krieg an Desinformation passiert und wie das Ganze genutzt wird, um die eigenen Interessen, von welcher Seite auch immer, in die Gesellschaft zu bringen und so seinen eigenen Standpunkt besser durchzubringen und Argumente dazu zu finden. Und wie unterscheidet man dann: Was stimmt hier, was stimmt nicht? Gerade in solchen Krisensituationen ist das natürlich eine besonders sensible Angelegenheit. Da sind eben auch immer der Gesetzgeber als solcher, aber auch jene Menschen, die sich mit dem Recht auseinandersetzen, gefragt.

Magdalena Pöschl ist Professorin am Institut für Staats- und Verwaltungsrecht an der Universität Wien und sie kann uns einiges erzählen: Wie geht denn der Rechtswissenschafter, die Rechtswissenschafterin damit um und wie geht zum Beispiel auch die EU damit um, was da auf die Bürger zukommt und was auch an technologischer Entwicklung da ist, und wie geht das Recht darauf ein, was kann es da regulieren und was nicht? – Bitte sehr. (Beifall.)

Magdalena Pöschl (Professorin am Institut für Staats- und Verwaltungsrecht, Universität Wien): Meine sehr geehrten Damen und Herren! In sozialen Medien verbreiten sich, wie wir gerade gehört haben, Lügen und Hass in atemberaubender Geschwindigkeit. Sie schaffen fragmentierte Öffentlichkeiten, die nicht mehr zueinanderfinden. Das gefährdet die faktenbasierte und friedliche Debatte gegensätzlicher Positionen. Genau diese Debatte brauchen wir in der Demokratie aber.

Irritierenderweise berufen sich die, die Hass und Lügen verbreiten, besonders gerne auf die Meinungsfreiheit, also just auf jenes Grundrecht, das wir als das Fundament der Demokratie ansehen – und sie haben nicht ganz unrecht. Die Meinungsfreiheit schützt Tatsachenbehauptungen prinzipiell auch dann, wenn sie wahrheitswidrig oder sogar gezielte Lügen sind, ebenso Werturteile, selbst wenn sie schockieren oder verletzen.

Als die Meinungsfreiheit 1950 in der Europäischen Menschenrechtskonvention garantiert wurde, konnte niemand ahnen, was Äußerungen heute in den sozialen Medien bewirken. Nach der Katastrophe des Nationalsozialismus war aber sehr wohl bewusst, dass Meinungsfreiheit auch Lügen und Hass hervorbringt, die mit entsprechender Propaganda eine Gesellschaft in das absolute Verderben stürzen können.

Deshalb schärft uns die Europäische Menschenrechtskonvention ein, dass die Ausübung der Meinungsfreiheit mit Pflichten und Verantwortung einhergeht und dass sie begrenzt werden kann. Diese Freiheit ist also nicht naiv. Die Grenzen zu ziehen ist die Aufgabe des Rechts. Es steht aber bei den sozialen Medien vor beträchtlichen Herausforderungen.

Die Schlüsselfrage lautet mit Blick auf die Demokratie: Was darf im öffentlichen Raum eigentlich gesagt werden? Darüber besteht in der Staatengemeinschaft kein Konsens. Ob und inwieweit Lügen und Hass verboten oder toleriert werden sollen und in welcher Relation sie zu anderen, zu Gegengrundrechten stehen, wird selbst in liberalen Demokratien ganz unterschiedlich beurteilt. Daraus folgt eine Vielfalt an Regelungen in den verschiedenen Staaten, die man im analogen Raum mit Interesse zur Kenntnis nehmen könnte, aber im digitalen Raum werden sie zum Problem, denn die dort verbreiteten Nachrichten sind eben an vielen Orten der Welt abrufbar: Welches Recht soll dann aber zur Anwendung kommen? Das strengste, das mildeste oder vielleicht alle Rechtsordnungen zugleich? Wo soll prozessiert werden und mit welchen Folgen?

Ein erstes Regulierungsproblem ist also, dass die Staaten über den Inhalt und die Grenzen der Meinungsfreiheit leider ganz unterschiedlicher Meinung sind.

Selbst wenn sie sich auf Schutzstandards einigen könnten, hätten sie noch immer ein veritables Kontrollproblem. Die Urheber und Urheberinnen schädigender Informationen sind im digitalen Raum nämlich oft nicht greifbar, weil sie anonym sind oder nicht einmal Menschen, sondern Bots. Außerdem verfügt keine liberale Demokratie über die Ressourcen, um den grenzenlosen digitalen Raum effektiv zu kontrollieren.

Das führt zur Frage, ob man für diese Kontrollen nicht die Intermediäre in die Pflicht nehmen kann. Immerhin sind sie greifbar, und sie haben den Kommunikationsraum ja eröffnet. Anders, als sie uns ursprünglich glauben machen wollten, sind die Intermediäre keine neutralen Boten der Nachrichten, die auf ihren Plattformen kursieren, vielmehr steuern sie die Verbreitung dieser Nachrichten durch ihre Algorithmen. Inhaltlich nehmen sie aber auf die Nachrichten noch keinen Einfluss. Das unterscheidet sie von traditionellen Medien.

Wir können auf sie daher nicht vertraute Verantwortungskonzepte eins zu eins übertragen, sondern müssen eigenständige Pflichtenbündel für sie entwickeln. Wer Intermediären Pflichten auferlegen will, muss allerdings wissen, dass sie keine normalen Bürger sind, die die Rechtsordnung eines Staates anstandslos befolgen, denn Intermediäre verfügen über eine extreme Marktmacht, die es ihnen bisweilen ermöglicht, die Regeln selbst zu diktieren. Zudem haben sie einen enormen Wissensvorsprung. Nach welchen Algorithmen sie Inhalte verbreiten, ist ihr gut gehütetes Geschäftsgeheimnis.

Die Regulierung sozialer Medien stößt damit auf zumindest drei gravierende Probleme:

Die Staaten sind sich – erstens – nicht einig darüber, welche Inhalte zu verbieten sind. Sie können – zweitens – den digitalen Raum nicht allein kontrollieren, sondern sind dabei – drittens – auf Intermediäre angewiesen, die aber wegen ihrer Macht und ihres Wissensvorsprungs schwer zu regulieren sind – jedenfalls für einen Einzelstaat.

Die Europäische Union hingegen kann Intermediären mit größerem Gewicht entgegentreten und hat sie auch schon früh zu regulieren versucht. Markant war die E-Commerce-Richtlinie aus dem Jahr 2000, mit der die EU zwei grundlegende Regulierungsentscheidungen getroffen hat:

Erstens hat sie Intermediären ein relatives Haftungsprivileg zugestanden. Sie haften nicht für Inhalte, die in ihrem digitalen Raum verbreitet werden, es sei denn, sie haben Kenntnis davon, dass diese Inhalte rechtswidrig sind, dann müssen sie den Inhalt entfernen. Tun sie das nicht, können sie zur Verantwortung gezogen werden. Damit reagiert die EU auf die mittlere Stellung der Intermediäre zwischen neutralen Nachrichtenboten und traditionellen Medien. Zugleich antwortet sie zumindest auf das Kontrollproblem, weil sie den Intermediären einen Anreiz gibt, rechtswidrige Inhalte von sich aus zu entfernen.

Die zweite Regulierungsentscheidung war das Herkunftslandprinzip. Für die Intermediäre sind nicht die Rechtsordnungen aller EU-Staaten maßgeblich, sondern grundsätzlich nur die Rechtsordnung jenes Staates, in dem sie niedergelassen sind. Damit antwortet die EU ein Stück weit auf das Problem der divergierenden Rechtsordnungen – freilich mit der Folge, dass sich die Intermediäre dann in jenem Staat niederlassen, der die für sie günstigste Rechtsordnung hat. Das ist bekanntlich Irland. Dieses Forumshopping kann nur durch eine Harmonisierung der Rechtsordnungen entschärft werden. Soweit sie nicht erreichbar oder Verbote nicht konsensfähig waren, hat die Europäische Union versucht, die Intermediäre mit sanftem Druck zur Selbstregulierung zu veranlassen, zunächst gegen Hassreden. Intermediäre erließen also für ihren jeweiligen Kommunikationsraum selbst Regeln gegen Hass, die dann weltweit galten. Sie löschten regelwidrige Inhalte, was die Staaten in angemessener Zeit nie zu Wege gebracht hätten, und diese Löschungen erfolgten auch weltweit.

Das sind gewisse Erfolge, aber es gab auch Schattenseiten. Die Löschkriterien beziehungsweise ihre Handhabung waren vollkommen intransparent und die Intermediäre löschten Äußerungen, ohne dass dies den Betroffenen mitgeteilt oder auch erläutert wurde. Für die Meinungsfreiheit ist das eine schlechte Nachricht; wenn ein Staat so vorginge, wären wir sehr alarmiert.

Auf Selbstregulierung setzt die Europäische Union auch beim Kampf gegen Desinformation. Die Intermediäre verpflichten sich selbst und andere, mit Faktencheckeinrichtungen zusammenzuarbeiten, die Desinformationen enttarnen, Desinformanten mit technischen Maßnahmen zu bremsen und auch zurückzustufen.

Durchschlagenden Erfolg hat diese Selbstregulierung freilich nicht erzielt, denn durch den digitalen Raum rauschen weiterhin Hass und Lügen. Das hat manche Staaten veranlasst, für die Intermediäre eigene Gesetze zu erlassen: Deutschland, Frankreich und auch Österreich mit dem Kommunikationsplattformen-Gesetz. Diese nationalen Alleingänge verletzten allerdings – wie die Staaten wohl ahnten und der EuGH nun auch ausgesprochen hat – das Herkunftslandprinzip. Sie sind heute auch überholt, weil vor Kurzem eine europäische Verordnung in Kraft getreten ist, der Digital Services Act, DSA, der unmittelbar in Österreich gilt und der die Intermediäre umfassend reguliert.

Aus der Fülle der Regelungen greife ich nur ein paar heraus: Intermediäre treffen nach dieser Verordnung Sorgfaltspflichten. Sie müssen Allgemeine Geschäftsbedingungen erlassen, die klar und verständlich regeln, welche Inhalte in ihren Kommunikationsräumen nicht gestattet sind. Bei der Anwendung dieser Regeln müssen die Intermediäre die Grundrechte der Nutzerinnen berücksichtigen. Sie müssen Verfahren einrichten, damit Nutzer rechtswidrige Inhalte melden und ihre Entfernung fordern können. Über ein solches Verlangen müssen die Intermediäre zeitnah eine begründete Entscheidung treffen, die sie den Betroffenen mitteilen; und wenn diese damit nicht einverstanden sind, dann muss ihnen die Gelegenheit zu einer Beschwerde gegeben werden, über die die Intermediäre abermals rasch zu entscheiden haben. Erweist diese Beschwerde die beanstandete Entscheidung als unbegründet, dann muss diese Entscheidung revidiert werden.

Die Liste der Sorgfaltspflichten ließe sich fortsetzen, aber schon das Gesagte zeigt, dass die Europäische Union den Intermediären hier Aufgaben überträgt, die sehr stark an das erinnern, was sonst staatliche Behörden machen. Zudem bindet sie die Intermediäre aber an rechtsstaatliche Standards, die in der Phase der Selbstregulierung noch fehlten: Es muss klare Regeln geben. Die Grundrechte müssen beachtet werden. Es müssen begründete Entscheidungen in angemessener Zeit getroffen werden.

Damit versucht die EU, das Kontrollproblem und das Problem der divergierenden Rechtsordnungen zu lindern. Neben diesen Sorgfaltspflichten treffen die Intermediäre nach dieser Verordnung auch Transparenzpflichten, die umso weiter reichen, je größer die Intermediäre sind. Die Big Player, die uns hier interessieren, müssen zum Beispiel nicht nur Onlinewerbung transparent machen und die wichtigsten Parameter ihrer Empfehlungssysteme offenlegen, sie müssen auch selbst bewerten, ob ihre Dienste systemische Risiken auslösen, ob sie sich zum Beispiel nachteilig auf die gesellschaftliche Debatte und auf Wahlprozesse auswirken. Wenn ein solches Risiko besteht, dann ist es zu minimieren. Über all das muss regelmäßig Bericht erstattet werden und die Intermediäre müssen ihre Daten auch Forschenden öffnen.

Auch diese Liste ließe sich fortsetzen, aber das Gesagte zeigt bereits: Die EU versucht, den Wissensvorsprung der Intermediäre abzubauen. Ob die Intermediäre ihre Pflichten aus der Verordnung erfüllen, beaufsichtigt nach dem Herkunftslandprinzip der Staat, in dem sie niedergelassen sind. Viele Aufgaben fallen daher den irischen Behörden zu, die in der Vergangenheit aber eher durch vornehme Zurückhaltung bei der Beaufsichtigung der Intermediäre aufgefallen sind. Wohl deshalb setzt die Verordnung zur Aufsicht der sehr großen Onlineplattformen die Europäische Kommission ein.

Insgesamt zeigt diese europäische Verordnung regulatorische Lerneffekte. Sie lindert das Kontrollproblem und das Problem der divergenten Rechtsordnungen. Sie versucht, das Wissensgefälle abzubauen. Sie reagiert auf die Übermacht der Intermediäre, indem sie ihnen nicht irgendeine kleine irische Behörde, sondern mit der Kommission eine ebenbürtige Akteurin gegenüberstellt.

Ist jetzt alles erledigt? – Ganz sicher nicht. Wie diese und andere europäische Regelungen wirken und vor allem was sie leisten, das muss sich erst zeigen. Sie machen aber deutlich, dass grenzüberschreitende Probleme besser durch grenzüberschreitende Regelungen lösbar sind. Daher sollte Österreich weiterhin engagiert an europäischen Regelungen mitwirken und sie beherzt vollziehen. Weniger ratsam ist es, zu versuchen, die großen Intermediäre auf eigene Faust in die Knie zu zwingen.

Sinnvoll bleiben hingegen weiterhin Regulierungen der anderen Akteure, also der Rednerinnen, der Empfänger, derjenigen, die Information mit journalistischer Sorgfalt erstellen – und auch hier kann man von der Regulierung der Europäischen Union lernen: Sie setzt ja nicht nur auf hartes Recht, also auf Befehl und Zwang, sondern auch auf Selbstregulierung, auf den Einsatz von Information und von Geld. Und gerade zu diesen Steuerungsressourcen raten wir in unseren Empfehlungen, die Ihnen jetzt Matthias Karmasin vortragen wird. – Danke. (Beifall.)

Günther Mayr: Vielen Dank für diese Einblicke in eine komplexe Materie. Man sieht förmlich die irische Behörde, wie sie mit einer Armada an Google-Anwälten über einen Gesetzestext verhandelt, und man hat ein bisschen Bauchweh dabei, finde ich. Wir können jetzt hier sagen, es ist alles so schlimm, es ist alles so furchtbar!, natürlich bietet das Internet aber auch unendlich viele Chancen, das darf man nie vergessen. Die Frage ist jedoch: Was tun? – Und da hat sich auch wieder die Akademie der Wissenschaften sehr verdient gemacht und hat untersuchen lassen – auch wieder unter der Leitung von Matthias Karmasin –, was denn jetzt so Empfehlungen sind: Wie kann es weitergehen und wo liegen denn die Knackpunkte? Wohin kann es gehen und wie können wir uns selbst helfen? Einige davon wurden ja schon angesprochen.

Ich bitte um Ihre Ausführungen. (Beifall.)

Matthias Karmasin: Ja, ich komme zum Schluss.

Sie sehen hier die Empfehlungen projiziert. Ich werde mich bemühen, in aller Kürze dazu zu sprechen, weil wir ja doch schon einiges Ihrer Zeit und Ihrer Aufmerksamkeit – allerdings live, wir kriegen auch keine Werbung dafür – beansprucht haben.

Die Arbeitsgruppe der Akademie leitet aus ihrer Bestandsaufnahme im Sinne von Heinz Faßmann sechs Handlungsempfehlungen ab, die natürlich nicht Politik präskribieren sollen, sondern die Empfehlungen sind, über die man nachdenken könnte.

Kollegin Pöschl hat das schon ausgeführt: Die Hoffnung, dass Österreich die großen Intermediäre in die Knie zwingt, ist aus verschiedensten Gründen weitgehend obsolet. Soll man jetzt sagen: Das war’s und okay, schlecht gelaufen für uns?! Oder gibt es Handlungsmöglichkeiten? – Und die gibt es.

Erstens: Der digitale Ordnungsruf ist nach unserem Dafürhalten eine Möglichkeit, dass Politiker:innen – und insbesondere Abgeordnete zum Nationalrat – im Sinne ihrer Vorbildfunktion für die Öffentlichkeit einen Code of Conduct für den aktiven und passiven Umgang mit sozialen Medien entwerfen könnten. Im Sinne einer Selbstregulierung werden darin ethische Grundprinzipien im Umgang mit sozialen Medien definiert. Im Falle der Missachtung kann in Analogie zu den Regelungen im Plenum in diesem Fall ein digitaler Ordnungsruf erteilt werden. Auf dieser Grundlage sollte über die Präsidiale des österreichischen Nationalrates eine entsprechende Diskussion angeregt werden. Ich füge hinzu: vor allem dann, wenn die Kommunikation durch Steuergeld refinanziert ist und somit nicht nur rein private Kommunikation ist.

Zweitens regen wir – orientiert am Vorbild bestehender Gremien wie dem PR-Ethik-Rat, dem Österreichischen Presserat oder dem Österreichischen Werberat – ein Gremium der Selbstregulierung im Bereich politischer Werbung und PR in sozialen Medien an. Die eindeutige Präferenz für Selbstregulierung statt gesetzlicher Regelungen entspricht auch dem Grundgedanken, dass Freiheit nur dann vernünftig ist, wenn sie auch mit Verantwortung gelebt wird – und das gilt auch für die Meinungsfreiheit.

Wir regen drittens einen Monitoringbericht zur digitalen politischen Kommunikation in Österreich an, in dem ein Monitoring hinsichtlich der Reichweiten, des Nutzungsverhaltens und der Inhalte erfolgt. Und wir meinen, dass die Stärkung empirischer Evidenz in diesem relevanten Feld eine wesentliche Grundlage nicht nur für die Entwicklung und Rekonstruktion des Wandels sein kann, sondern auch für aktuelle und aber auch historische Forschungen wesentliche Grundlagen liefern kann.

Viertens plädieren wir für eine Reform der Medienförderung und Inseratenvergabe – natürlich nur Inserate, die durch Steuergeld refinanziert sind –, die sich an der Qualität, an Qualitätskriterien, an Innovation und an der weitgehenden Unabhängigkeit der Medien orientiert.

Nicht zuletzt sollten im Zuge dessen auch die Aufdeckung von Desinformation durch die Stärkung unabhängiger Fact-Checking-Institutionen gefördert und die Unabhängigkeit der Medien, insbesondere auch des öffentlich-rechtlichen Rundfunks, in jeder Perspektive – wirtschaftlich, politisch – gesichert werden.

Zur Förderung europäischer Plattformen: Wir haben über den Digital Services und den Digital Markets Act schon einiges gehört, aber die Möglichkeit, dass die Regulierung der großen digitalen Plattformen hinsichtlich ihrer Algorithmen, hinsichtlich der Transparenz, aber auch der Datennutzung, dessen, was dort generiert wird, auf europäischer Ebene verbesserungsbedürftig ist, ist in unserer Gruppe konsensual; zum Beispiel Auditingprozesse, aber auch der Gedanke, dass man digitale Plattformen und Infrastrukturen schafft, die im öffentlichen europäischen Eigentum stehen, denn die Frage, ob das unbedingt börsennotierte Konzerne sein müssen, die so wesentliche Infrastrukturaufgaben unserer Demokratie wahrnehmen, müsste man noch einmal diskutieren.

Und last, but not least: Es wird Sie nicht überraschen, dass wir Medienkompetenz und demokratische Bildung forcieren wollen – auch dem Zitat in meinem ersten Statement von Kollegen Münkler folgend. Das heißt, man müsste stärker auch im schulischen, aber auch im Bereich des lebenslangen Lernens damit umgehen: Wie kann man Desinformation und manipulative Inhalte erkennen, Stichwort Deepfakes, alle diese Bilder und Videos, wie kann man das erkennen? Wie kann man sachlich diskutieren? Wie kann man auf Hassreden angemessen reagieren? Und wie ist der Zusammenhang von Demokratie und Öffentlichkeit zu sehen? Halten wir es für nötig, da etwas zu tun? – Ja. Um ein klassisches Motiv zu bemühen: Der Schlaf der Vernunft gebiert Ungeheuer.

Es geht abschließend wirklich um die Frage, in welcher Gesellschaft wir in Zukunft leben wollen. Und unsere, soll heißen die demokratische und freie, um nicht zu sagen, aufgeklärte Form von Öffentlichkeit ist als Lebensmodell bedroht, inner- und außerhalb Europas. Sie ist politisch, ökonomisch und sozial bedroht, sie versteht sich nicht mehr von selbst. Deswegen geht es aktuell auch darum, nicht zu hoffen und zu warten, dass andere etwas tun, sondern darum, dass man selbst beginnt. Es geht doch um die Zukunft der Zivilgesellschaft – nicht um mehr, aber auch nicht um weniger! – Danke fürs Zuhören. (Beifall.)

Günther Mayr: Vielen Dank für diese Ausführungen und den Appell für eine funktionierende Zivilgesellschaft.

Diese Zivilgesellschaft wird natürlich maßgeblich mitbestimmt von den politischen Entscheidungsträgern, und ich darf jetzt vier Nationalratsabgeordnete auf die Bühne bitten, um noch kurz darüber zu reden. Ich begrüße Herrn Nico Marchetti von der ÖVP, Frau Dagmar Belakowitsch von der FPÖ, Herrn David Stögmüller von den Grünen und Frau Henrike Brandstötter von den NEOS – herzlich willkommen.

Herr Marchetti, ein Thema, das wir momentan relativ breit diskutieren, ist diese Geschichte mit der Klarnamenpflicht. Wir wissen um all die Hasspostings, und es ist Staatssekretär Tursky, der gemeint hat, es wäre notwendig, dass jeder sozusagen mit vollem Namen aufscheint. Das ist natürlich auch im Sinne von Datenschutz und Anonymisierung eine breite Debatte. – Wie sehen Sie das?

Nico Marchetti (ÖVP): Vielleicht noch einen grundsätzlicheren Punkt, weil mich die Empfehlungen natürlich auch nicht ganz kaltlassen. Ich glaube, es ist einerseits natürlich wichtig, bei der politischen Auseinandersetzung in den sozialen Medien nicht so zu tun, als wäre das etwas, was nur auf die sozialen Medien reduzierbar wäre. Wenn ich mir anschaue, wie sich Politik entwickelt hat oder wie sich auch Populismus entwickelt hat, dann muss ich sagen, den hat es ja in verschiedensten technischen Lösungen gegeben.

Wenn ich jetzt nur an, ich weiß nicht, Silvio Berlusconi denke, der mit – ich sage jetzt einmal – etablierten Medien, die er beeinflusst hat, den Aufstieg in der Politik geschafft hat, oder wenn ich in der jüngeren Vergangenheit an Jörg Haider denke, der mit Taferln TV-Diskussionen revolutioniert und sich dadurch einen Wettbewerbsvorteil erarbeitet hat, dann kann ich sagen, es ist ein Wettbewerb, Politik ist ein Wettbewerb. Und ich glaube, neu sind jetzt das Spielfeld, aber nicht grundsätzlich alle Spielregeln. Das dürfen wir nicht vergessen. Nicht alles, was wir an politischen Entwicklungen oder an der Debatte als negativ empfinden, hat ausschließlich mit der technischen Lösung der sozialen Medien zu tun; das gab es in anderen Facetten schon auch. Das wollte ich nur betonen.

Konkret zur Klarnamenpflicht: Ich glaube, das kann ein Schritt sein; es ist ja nicht der einzige. Ich glaube, wir müssen uns auf diesem Spielfeld überhaupt überlegen: Passen die Spielregeln, die in der realen Welt existieren, dort auch? Müssen wir sie abändern? Ich glaube, in der jetzigen Situation, wenn wir physisch miteinander diskutieren, gibt es ja so etwas – in der digitalen Welt nicht. Da gibt es einen Gap, wo man sagt, es geht einerseits um Rückführbarkeit und es geht auch darum, dass man auch Recht durchsetzen kann, weil man sonst eben vielleicht nicht dahinterkommt, wer da mit einem argumentiert und möglicherweise Recht bricht.

Da muss man sich Lösungen überlegen, und ich glaube, das ist auf jeden Fall ein Ansatz, der da helfen würde.

Günther Mayr: Frau Belakowitsch, ist Klarnamenpflicht für Sie ein Thema?

Dagmar Belakowitsch (FPÖ): Klarnamenpflicht ist sicher einer der Schritte.

Zunächst aber einmal einen schönen Nachmittag, danke für diese Möglichkeit, danke auch für diesen Vortrag heute insgesamt. Ich habe jetzt gut zugehört und ich glaube, Klarnamenpflicht ist ein Punkt, den man nehmen kann, aber als ich dem hier heute genau gefolgt bin, habe ich nicht den Eindruck gewonnen, dass die große Gefahr der sozialen Medien darin besteht, dass die Demokratie gefährdet ist, sondern ich habe bei manchen Argumenten heute eher den Eindruck gehabt, dass die linke Deutungshoheit gefährdet ist.

Was bedeutet eigentlich: Was entspricht der Wahrheit? Wo ist Hass und wo ist tatsächlich Lüge? Also Hass ist wahrscheinlich relativ einfach zu definieren. Davon sind wir als Politiker alle betroffen, sehr häufig, als weibliche Politiker vielleicht noch ein Stück weit mehr, davon sind natürlich auch andere Menschen betroffen, das ist relativ einfach zu definieren. Aber was ist Lüge? Was ist Unwahrheit? Wo ziehe ich die Grenze? Wo ist die Wahrheit? Wer hat die Wahrheit gepachtet in den sogenannten etablierten Medien, in Ihrem Medium, dem Österreichischen Rundfunk, wo erst vor wenigen Tagen ein Faktenchecker Fakten gecheckt hat, was schlicht und einfach nicht der Wahrheit entsprochen hat? Also wo ziehe ich die Grenze zur Wahrheit? Ich glaube, man sollte ein bisschen vorsichtiger sein, hier permanent sozialen Medien den Schwarzen Peter zuschieben zu wollen.

Ich war gleich beim Eingangsstatement fast ein bisschen entsetzt, als ich gehört habe, dass Jugendliche bis zu 8 oder 9 Stunden – glaube ich – jeden Tag in den sozialen Medien verbringen. Das ist natürlich ein Wahnsinn, wenn das den Tatsachen entspricht; das ist sicherlich ein Durchschnittswert.

Ich habe selbst Jugendliche, Kinder zu Hause, und das liegt natürlich auch in der Verantwortung des Einzelnen, in dem Fall natürlich des tatsächlichen sozialen Umfeldes, also der Eltern, jener, bei denen die Kinder leben. Das ist schon ein Problem. Es sind heute viele soziale Medien, die es noch gibt, die ich von meinen Kindern kenne, noch gar nicht erwähnt worden. Man hat als Mutter auch gar keinen Überblick mehr – das muss ich sagen –, es kommen ständig neue dazu, andere sind dann weniger interessant.

Das ist also schon ein ganz großes, ein wesentliches und wichtiges Thema, aber letzten Endes ist das eine Selbstverantwortung; für Jugendliche gibt es ja auch jemanden, der die Verantwortung übernimmt.

Worüber ich mir heute aber schon ein bisschen meine Gedanken mache, ist die Frage: Wer stellt den Anspruch auf absolute Wahrheit? Ich sehe nicht, dass die absolute Wahrheit in den etablierten Medien gegeben ist. (Beifall.)

Günther Mayr: Herr Stögmüller, ich möchte Sie schon auch konkret zur Klarnamenpflicht befragen. Ich denke, dass es für jede Partei eine wichtige Position gibt, die man einnehmen kann.

David Stögmüller (Grüne): Ja, ich komme gleich zum Klarnamenbereich. Vielen Dank für diese spannende Diskussion. Ich habe zuerst eine Gruppe – deshalb bin ich ein bisschen später gekommen – mit lauter Vierzehnjährigen gehabt, und ich habe auch die Frage gestellt, wie viele von denen Tiktok verwenden, und fast alle haben aufgezeigt. Wenn ich hier frage: Wie viele verwenden Tiktok? Einmal eine Hand: Wer verwendet das alles? – Ja, fast alle Hände bleiben unten. Genau das ist der Punkt, das ist eine Generationsfrage: Wer verwendet das und wie viele haben überhaupt Zugang dazu?

Zur Klarnamenpflicht: In dem Vorstoß der ÖVP ging es darum, dass man Klarnamen bei Bewertungsplattformen abgeben sollte. Wir haben uns dagegen ausgesprochen, denn die Meinungsfreiheit ist für uns Grüne ein ganz wesentlicher Punkt. Das heißt, die Menschen müssen nicht unbedingt den Namen dafür hergeben, so zum Beispiel im „Standard“-Forum – das ist ein gutes Beispiel. Das „Standard“-Forum, jeder kennt es und kann das darunter lesen. Was aber das „Standard“-Forum macht, ist verifizieren, ist nachfragen: Ist das ein echter Name? Ist es kein echter Name? Sind die Namen auch wirklich angegeben?, und so weiter. Das ist eine Grundvoraussetzung. Das müssen wir auch politisch irgendwie klären, das wäre sinnvoller.

Weil ich hier den Herrn ehemaligen Justizminister sehe: Das ist ein Punkt, der vor dem Höchstgericht einfach nie gehalten hat. Das heißt, das Höchstgericht hat die Klarnamenpflicht schon aufgehoben. Das heißt, da braucht es eine Maßnahme, die auch vor dem Höchstgericht hält und entsprechend praktikabel ist. Eine Klarnamenpflicht: Wie man das machen will, dass das dann überall dort steht, das sehe ich einfach nicht, sondern es muss von der Plattform das blaue Hakerl da sein, wie es bei Instagram ist oder wie man es von Facebook kennt: Das ist ein verifizierter Account. – Das wäre zu diesem Punkt sinnvoll.

Günther Mayr: Es ist auch in Südkorea wieder zurückgenommen worden, wo man es gemacht hat, weil irgendwelche Hacker die Daten gestohlen haben; es ist problematisch.

Frau Brandstötter, das ist wahrscheinlich auch für Sie ein Spannungsfeld, in dem man einerseits Kontrolle will, aber gleichzeitig die Freiheit geben will.

Henrike Brandstötter (NEOS): Ich bin Frau und ich bin Politikerin, das heißt, es gehört zu meinem Alltag dazu, dass mir fiese Vergewaltigung und ein schrecklicher Tod an den Hals gewünscht werden, und zwar mit vollem Namen, mit Arbeitgeber und dreimal weiterscrollen dann auch Kinderfotos von der Familie. Das heißt, eine Klarnamenpflicht löst dieses Thema noch gar nicht, ganz im Gegenteil.

Ich möchte auch eine andere Perspektive eröffnen: Für wen ist es denn wichtig, dass man seinen Klarnamen, seinen eigenen Namen verstecken kann? – Das ist der junge schwule Mann, der am Land lebt, der sich mit anderen Jugendlichen über sein Empfinden austauschen möchte. Das sind Menschen, die eine Krankheit haben, eine Behinderung, die sich austauschen wollen, mehr Informationen darüber haben wollen, in Foren unterwegs sein wollen. Das sind Dissidenten, das sind Menschen, die sich politisch äußern wollen zu ihren Herkunftsländern, wo sie aber noch Familie haben, die dann bedroht ist. Diese und viele weitere Gründe sprechen ganz klar gegen eine Klarnamenpflicht.

Was wir aber brauchen – es wurde heute als Empfehlung auch schon genannt –, ist Medienkompetenz. Das ist der Schlüssel, und zwar nicht nur für junge Menschen – man sollte nicht auf die jungen Menschen zeigen –, sondern da sind wir genauso gefragt. Wir brauchen Medienkompetenz unbedingt auch in der Erwachsenenbildung, in der zum Beispiel der ORF mit seinen Landesstudios ein ganz entscheidender Player sein könnte, um Medienkompetenz zu vermitteln.

Wir brauchen mehr Faktencheck. Wir brauchen funktionierende Medien in Österreich. Eine der Empfehlungen war ja auch – interessanterweise, weil es eigentlich wenig mit sozialen Medien zu tun hat –, dass es Transparenz bei der Vergabe von Inseraten braucht. Ich weiß schon, warum das dort gestanden ist, weil nämlich der korrekte Rückschluss ist: Wenn österreichische Medien von der Politik mit Inseraten der öffentlichen Hand, die durch nichts zu rechtfertigen sind, übergossen werden, dann führt das zu einem sinkenden Vertrauen in Medien und dann weiter dazu, dass ich mir andere Informationsquellen suche; das ist absolut richtig.

Ein letzter Punkt: Ich glaube, wir müssen sogar einen Schritt weiter gehen. Ich fordere immer – es klingt ein bisschen altbacken – ein Gütesiegel für Medien. Das klingt nach Schnitzel und AMA-Gütesiegel, aber es macht Sinn. Wenn Sie sich ein Produkt kaufen, zum Beispiel online Schuhe, dann wollen Sie sich darauf verlassen können, dass Sie das Produkt bekommen und dass Sie Ihr Geld zurückbekommen, wenn es Ihnen nicht gefällt. Bei Medien aber, bei Informationsdiensten gibt es überhaupt keine Richtschnur. Wenn ich online shoppe, habe ich ein Trusted-Shops-Siegel, aber ich brauche so etwas auch für Informationen aus dem Netz, vor allem auch angesichts der Tatsache, dass es immer weniger gedruckte Medien geben wird und auch da sich immer mehr das Digitale verbreitet. – Danke. (Beifall.)

Günther Mayr: Also eine Art Gütesiegel für Medien. Können Sie sich damit anfreunden, Herr Marchetti? Es ist in den Empfehlungen zum Beispiel die Stärkung der demokratischen Kontrolle über diese digitalen Plattformen drinnen und auch eine Reform der Medienförderung, wie sie angesprochen wurde, um da sozusagen eine Qualitätssicherung zu betreiben.

Nico Marchetti: Ich glaube, dass eine Entwicklung, die heute nicht so stark vorgekommen ist, das viel notwendiger macht, und zwar Artificial Intelligence. Es gibt ja Programme, die, wenn man ein „ZIB 2“-Interview von einem beliebigen Politiker, einer beliebigen Politikerin einspielt, ganz, ganz kostengünstig so viele Daten sammeln, dass sie Videos generieren können, die authentisch sind, mit einem selbstgeschriebenen Text, und man weiß dann nicht mehr, welches Video jetzt stimmt, wer da wirklich authentisch ist. Es gibt zum Beispiel von den Vereinten Nationen eine Arbeitsgruppe, die sich genau diesem Thema widmet – Artificial Intelligence, Fakenews –, auch dieser Software, die ja dann wirklich eine Gefahr für die Demokratie ist. Wie man da einen Umgang miteinander findet, das halte ich für unglaublich wichtig.

Auf der anderen Seite glaube ich auch, und da schließe ich mich meiner Vorrednerin an, dass die Medienkompetenz ein Schlüssel ist, weil man die schönsten Gütesiegel und die schönsten Hinweise formulieren und regulieren kann. Ich glaube, wenn man nicht darüber Bescheid weiß, worauf man achten muss und welche Dinge etwas bedeuten – man kann auch ein Gütesiegel fälschen, das geht gar nicht so schwer –, dann muss man schon auch die Medienkompetenz schulen.

Ich merke auch, dass das gefühlte Bewusstsein und das tatsächliche Bewusstsein sehr, sehr stark divergieren. Ich habe Diskussionen mit Schulklassen gehabt, die sagen, Datenschutz sei so wichtig et cetera, und wenn dann auf Facebook erscheint: Welches Haustier bist du?, geben sie Daten her, die ein Mensch, dem Datenschutz wichtig ist, für solch eine sinnlose Information nie hergeben würde. Sie erkennen das nicht als Gefahr, denn es kommt ja so spielerisch, so unschuldig daher, und in Wahrheit steckt dahinter jemand, der einfach Daten sammeln will.

Ich glaube, dass Medienkompetenz ein ganz wesentlicher Punkt ist, und daraus resultiert für mich, dass sie die Grundlage für demokratische Kompetenz ist. Wenn die User gestärkt sind, wenn sie wissen, wo die Gefahren lauern, wenn sie einen Blick dafür haben, wo wirklich Desinformation, Fakenews, böse Absichten et cetera vorkommen oder wo eine Information vielleicht schon so knackig ist, dass da irgendetwas nicht stimmen kann, dann, glaube ich, haben wir schon viel erreicht. Das ist etwas, was wir als liberaler Rechtsstaat leisten können.

Günther Mayr: Frau Belakowitsch, Sie haben es selbst angesprochen: Bei den Jugendlichen, bei denen man selbst oft nicht mehr den Überblick hat, da müssen Sie sich eigentlich darauf verlassen, dass die Kompetenz haben.

Dagmar Belakowitsch: Ja, natürlich.

Günther Mayr: Wie kann man das fördern?

Dagmar Belakowitsch: Medienkompetenz: Ich würde jetzt einmal im Großen und Ganzen unserer Bevölkerung, unseren Bürgern Medienkompetenz nicht absprechen. Ich glaube, man nimmt sich selbst zu wichtig, wenn man glaubt, die Leute haben die Kompetenz nicht und sie können es nicht abschätzen.

Mein Zugang ist: Wenn Bürger Medien konsumieren, wissen sie sehr genau, welches Medium sie konsumieren, was sie dort erwartet. Anders ist die Situation natürlich bei sehr jungen Menschen, bei jugendlichen Menschen, diese sind in einem Spannungsfeld, das ist richtig, die haben wahrscheinlich zu weit mehr sozialen Medien Zugang – nicht, weil wir ihn nicht hätten, sondern weil wir ihn nicht nützen.

Die Frage von Kollegen Stögmüller war ja ganz klar, Tiktok ist eines dieser Medien, die hauptsächlich von jungen Menschen genützt wird, und da gibt es noch andere Dinge, wo kommuniziert wird.

Das ist ein Stück weit natürlich auch ein Lernprozess. Junge Menschen müssen daraufhin geschult werden, das ist wohl richtig. Ich sage aber jetzt ganz bewusst: Ich glaube nicht, dass die Schule da der richtige Ort ist. – Es sitzt hier auch ein ehemaliger Unterrichtsminister im Raum. – Schule vermittelt oftmals Dinge, die junge Leute längstens können, beispielsweise im Fach digitale Grundbildung, wo die Lehrer bei den Schülern nachfragen, wie es funktioniert. Das ist eine Tatsache, das ist jetzt kein blöder Schmäh. Junge Menschen müssen das also lernen, und ich gehe so weit, dass ich sage: Da sind natürlich auch Eltern in der Pflicht, mit ihren Kindern darüber zu sprechen, Medienkompetenz zu vermitteln.

Was ich aber schon sagen möchte: Ich halte auch nichts von irgendwelchen Gütesiegeln. Wir wissen alle, dass Gütesiegel gar nichts bewirken, und ich habe ein bisschen den Eindruck, jeder hat Angst vor den sozialen Medien. Die Politik hat Angst, die sogenannten etablierten Medien haben Angst, weil natürlich soziale Medien oftmals auch Inhalte aufnehmen, aufgreifen, die man vielleicht gar nicht diskutieren möchte. Diesen Eindruck habe ich vor allem in den letzten Jahren gewonnen.

Wirklich noch einmal: Ich traue den Bürgern zu, dass sie Medienkompetenz haben. Ich traue es auch den jungen Leuten zu, dass sie sie erwerben werden. Da sind wie gesagt Eltern in der Pflicht. Ich halte aber nichts davon, dass wir uns jetzt vor lauter Angst und Panik hinsetzen und permanent noch mehr Geschichten von irgendwelchen Faktencheckern und irgendwelchen Fakenews erzählen. Ich behaupte noch einmal: Auch in den etablierten Medien wird nicht nur die Wahrheit gesagt, und es wird teilweise auch bewusst nicht die Wahrheit gesagt. Das ist kein Phänomen der sozialen Medien! (Beifall.)

Günther Mayr: Danke.

Herr Stögmüller: Angst vor sozialen Medien?

David Stögmüller: Ich möchte noch einmal auf Tiktok zurückkommen. Niemand von Ihnen, wenn Sie Kinder haben – Mütter, Großeltern –, würde seine Kinder in der Nacht alleine herumlaufen lassen, in der Stadt, am Land, irgendwo ganz alleine, ohne Aufsicht, ohne irgendetwas. Das Gleiche passiert aber im Internet. Ganz viele junge Menschen sitzen da – diese Videos auf Tiktok sind 3 Sekunden lang! Wenn Sie es sich einmal anschauen, 3 Sekunden lang, tsch, tsch, tsch (Wischbewegungen machend), sind Sie in einem Rabbit Hole – so nennt man das. Sie sind da drinnen gefangen, der Algorithmus schaut genau, auf welchem Video Sie um wie viele Sekunden ein bisschen länger drauf sind. Und dann kommt immer das Gleiche, ohne dass Sie da jemals wieder herauskommen.

Ich bin Landesverteidigungssprecher. Gerade im Hinblick auf den Gazakrieg, wenn man sich die Situation Israel-Gaza anschaut, kann ich Ihnen eines sagen: Man stellt fest, das ist unglaublich! Also was da in Tiktok an Propaganda, an Antisemitismus passiert – McDonald’s-Cheeseburger, quasi mit Blut verschmiert, oder blutige Starbucks-Getränke werden präsentiert, weil die sozusagen Israel fördern und unterstützen, und das wird immer wieder weiterverbreitet, immer tiefer und tiefer und tiefer; Frauenhass passiert, Frauen werden kontrolliert, gedemütigt, kontrolliert. Das alles passiert auf Tiktok.

Und das passiert nicht nur mit Hasspredigern. Die sprechen perfekt Deutsch, die können alles. Die manipulieren diese Menschen immer tiefer rein und immer tiefer rein, ohne dass die Jugendlichen es mitbekommen. Die Eltern bekommen es nicht mit, denn: Was tue ich denn mit diesem modernen Zeug? Die Lehrer:innen und die Pädagog:innen können mit den modernen Medien einfach gar nicht mithalten, auch weil da viel zu wenig in Ausbildung investiert wird.

Das ist schon ein Problem, und das ist nur der Beginn des Problems. Und da gebe ich Kollegin Belakowitsch nicht recht, denn das ist schon eine Situation, die wir uns sehr gut überlegen müssen.

Wir haben jetzt also AI, Kollege Marchetti hat es angesprochen. Ich war letzte Woche bei der OSZE. Da hat man sich einen ganzen Tag damit beschäftigt: Was ist AI und wie wird die Zukunft dazu ausschauen?

Aktuell sind 96 Prozent aller AI-Videos pornografische Videos, das heißt, da wird ein Porno gedreht, in dem nicht reale Menschen sind; 96 Prozent. Bis jetzt sind nur 4 Prozent irgendetwas anderes, Nachrichten und sonst etwas. Die Zukunft – und das ist eine Entwicklung in den nächsten Monaten, nicht Jahren –: In den nächsten Monaten werden 96 Prozent nicht mehr Pornos sein, sondern 96 Prozent werden Nachrichten und Fakenews sein. So nämlich wird es sich in Zukunft verändern – ohne dass man unterscheiden kann: Ist das echt oder nicht echt?

Die Realität muss sein: Wir brauchen Plattformen, von mir aus staatlich oder nicht staatlich, auf denen Menschen Videos und Fotos checken können, nämlich ein Gegenüber raufladen können, um zu prüfen, ob das echt ist oder nicht. Wir müssen da als Politik wirklich weiterkommen: Wie können wir diese Plattformen viel mehr in die Pflicht nehmen? Tiktok sagt es ganz offen: Sie wollen gar nicht so viel mit Familien, mit Betroffenen reden. Das ist natürlich deren Geschäftsmodell. Das ist deren Modell: dass sie Leute binden, länger dranhalten.

Wir brauchen als Politik wirklich entsprechend realistische Ansätze, die wir auch umsetzen können. Das ist der Punkt, aber ich möchte diese Drastik schon unterstreichen. Das wird Realität werden, und da geht es nicht darum, ob die FPÖ einmal irgendetwas anderes gesagt hat als die Grünen, sondern es geht darum, dass Menschen wirklich massiv manipuliert werden, in einer Situation, aus der sie nicht mehr herauskommen. Und das ist schon viel schlimmer als alles andere, was wir bis jetzt gekannt haben. (Beifall.)

Günther Mayr: Frau Brandstötter, das führt eigentlich direkt zu dieser einen Empfehlung: Monitoring der digitalen Plattformen in Österreich und der digitalen Kommunikation. Wie kann so etwas aussehen? Haben Sie sich da Gedanken gemacht?

Henrike Brandstötter: Das ist keine nationalstaatliche Aufgabe, das kann man in einer globalisierten Welt nicht nationalstaatlich lösen. Man kann es vielleicht auf europäischer Ebene lösen, wo es ja auch sehr viel Regulierungsüberlegungen und auch schon Konzepte gibt.

Ich möchte aber trotzdem noch eine andere Perspektive einbringen, etwas, was wir noch nicht im Blick haben. Wir alle waren ja sicher schon einmal auf einer Party, auf der dann irgendwann einmal die Stimmung vorbei war, also der Punkt kam, an dem man gesagt hat: Eigentlich sollten wir jetzt nach Hause gehen! Und genauso ist es gefühlt derzeit mit den sozialen Medien, den sozialen Netzwerken: dass irgendwie die Party einfach vorbei ist.

Der „Economist“ hat das vor Kurzem auch mit „The end of the social network“ betitelt, also das Ende der sozialen Netzwerke. Er hat noch keine validen Daten, die gibt es noch nicht, aber es gibt Thesen, und zwar begründet der „Economist“ diese wirklich sehr interessante Geschichte damit, dass 2020, also vor nicht einmal vier Jahren, 40 Prozent der US-Amerikaner noch angegeben haben, dass sie ihr Leben gerne online dokumentieren. Jetzt sind es nur mehr 28 Prozent.

Das ist doch schon sehr rapide zurückgegangen, und es gibt immer mehr Apps, über die sich Menschen wieder so treffen, wie das eigentlich zu Beginn von Facebook und Co war, dass man seinen eigenen kleinen Freundeskreis hat, mit dem man sich austauscht, und nicht Content für den Rest der Welt kreiert.

All diese Apps werden – alles Überlegungen – nie diese Kraft entfalten, die die sozialen Netzwerke entfaltet haben. Es wird kleinteiliger werden, aber ich glaube schon, dass wir uns ein bisschen darauf einstellen müssen, dass soziale Netzwerke, wie wir sie heute kennen, eigentlich schon Geschichte sind und dass wir uns neu überlegen müssen, wie wir denn mit dieser Kleinteiligkeit umgehen; und natürlich auch mit den Gefahren der künstlichen Intelligenz.

Künstliche Intelligenz ist aber nicht nur eine Gefahr, sie ist einmal eine Chance und eine Herausforderung, und ich bin keine Freundin davon, dass man sich gleich einmal verschließt, denn es wird sehr viel Prozesse vereinfachen. Es wird uns neue Möglichkeiten eröffnen, aber wir stehen da erst ganz am Anfang und müssen natürlich auch noch damit arbeiten und damit spielen, wie sich die KI weiterentwickelt.

Günther Mayr: Herr Marchetti, Entzauberung des Internets über die KI, so könnte man das jetzt zusammenfassen. Die künstliche Intelligenz haben Sie selbst angesprochen. Das ist natürlich auch im gesetzgeberischen Sinn dann sehr schwierig, abgesehen von dem eh im Rechtsreferat so gut ausgeführten Problem, dass es nationalstaatlich schwierig ist, aber jetzt mit dem Herkunftslandprinzip Irland plötzlich für irrsinnig viel zuständig ist.

Wie kann man sich da jetzt, auch als kleines Land wie Österreich, einbringen?

Nico Marchetti: Wir sind ja Teil der EU-Gesetzgebung, insofern können wir uns da in allen wesentlichen Bereichen einbringen.

Ich möchte mich dem, was Kollegin Brandstötter gesagt hat, ein bisschen anschließen. Diese Weltuntergangsstimmung zu verbreiten, halte ich nicht für passend. Es hat sich immer wieder der Wettbewerb verändert, auch die sozialen Medien haben Dinge in Gang gebracht, die ja nicht ausschließlich negativ zu betrachten sind.

Zum Beispiel hat Ihr ORF-Kollege zum Arabischen Frühling ein Buch herausgebracht, in dem er nur anhand von Tweets und Facebook-Postings die Ereignisse quasi rekapituliert hat. Gewisse Entwicklungen haben ja zumindest verheißungsvoll begonnen. Was dann daraus geworden ist, ist wieder eine andere Frage und eher eine Sache der Politiker und nicht der sozialen Medien. Diese haben da etwas in Gang gebracht, das hätte es sonst so nicht gegeben.

Oder auch Fridays for Future: Das polarisiert jetzt vielleicht in gewisser Weise, aber man würde es auch nicht ausschließlich als negativ betrachten, dass das – auch über die sozialen Medien – entstanden ist. Wir reden also immer gerne über die Gefahren, über die Risiken, über die Ängste und Sorgen – das ist okay, das Wort Empörungsbewirtschaftung ist ja schon gefallen. Ich glaube aber, wir sollten auch sehen: Okay, wir erreichen mit den sozialen Medien doch auch Bevölkerungsgruppen, die wir vielleicht sonst nicht so erreichen könnten.

Besonders spannend habe ich gefunden, was Herr Karmasin gesagt hat: dass gerade in Ländern, die nicht so demokratisch sind, die keine liberale Demokratie haben, die sozialen Medien durchaus positiv gesehen werden, auch im Hinblick auf demokratische Entwicklungen. Das ist ja auch ein spannender Zugang, weil wenn ich mir denke: Was wäre jetzt die Antithese zu den sozialen Medien und diesen Gefahren, von denen wir reden?

Die kann man in Russland sehen: Da gibt es keine Pluralität, da gibt es keine Meinungsäußerungen, da gibt es ein staatliches Medium, das über alles drüberfährt – also das kann ja nicht die Antithese sein, die wir wollen!

Um es auf den Punkt zu bringen: Ich glaube, es ist wichtig, ein Bewusstsein und eine Debatte zu haben. Das finde ich sehr wichtig. Wir haben jahrzehntelang über die Auswirkungen der Digitalisierung auf die Arbeitswelt diskutiert, wir haben die letzten Jahrzehnte aber nicht darüber diskutiert, was die Auswirkungen der Digitalisierung auf die Demokratie sind. Ich freue mich, dass wir das jetzt tun. Ich glaube, allein diese Debatte stößt schon etwas an.

Ich glaube, dass Medienkompetenz ein Schlüssel ist, ich glaube, dass sehr wohl auch ein Schlüssel ist, dass man sich überlegt: Wie kann man Fakenews und tatsächliche Information irgendwo sichtbar voneinander trennen? – Das wird nie perfekt funktionieren, aber man kann es ja zumindest innovativ probieren. Ich glaube, das sind dann schon auch so Dinge, von denen ich sage, das bettet sich in eine digitale Welt ein. Wir können ja die Politik nicht aus dem herausnehmen und irgendwelche Fantasiewelten erschaffen.

Die Politik wird sich genauso wie die Arbeitswelt, wie unser Alltag, wie alles andere durch diese Entwicklungen verändern, und die Politik muss sich noch bewusster machen, was das bedeutet und wie wir in diese Welt auch unsere vielgeliebten Werte der Freiheit, der Rechtsstaatlichkeit hinübertransferieren können. Das kann gelingen, also ich fürchte mich nicht! (Beifall.)

Günther Mayr: Frau Belakowitsch, sind soziale Medien also eine Chance für gelebte Demokratie?

Dagmar Belakowitsch: Ja, selbstverständlich! Also ich habe überhaupt keine Angst vor sozialen Medien, ich habe auch keine Angst vor Meinungspluralität. Ich sehe das als Bereicherung der demokratischer Möglichkeiten, die wir haben. Ich sehe das vor allem auch für junge Menschen so. Ich kann das jetzt nicht so beurteilen – was Kollegin Brandstötter gemeint hat –, dass es ohnehin schon vorbei ist, was man aber sieht, ist natürlich ein Wandel auch bei den sozialen Medien.

Vor zehn, 15 Jahren war Facebook das soziale Medium schlechthin; heute ist nur noch die Generation über 50 dort aktiv – ich kann das sagen, ich bin selbst über 50. Es ist aber einfach so: Junge Menschen kennen das gar nicht mehr, die schauen dort auch nicht hin, die finden das schlicht und einfach lächerlich. Das ist also einem dauernden Wandel unterzogen, wie natürlich auch unsere Demokratie einem Wandel unterzogen ist, wie unser ganzes Leben sich permanent verändert.

Ich denke, das sind Chancen für unsere Demokratie. Die Digitalisierung macht davor auch nicht Halt. Natürlich: Wenn es negative Entwicklungen gibt, dann muss man die wahrnehmen, dann soll man die auch wahrnehmen, aber insgesamt sehe ich dieses Thema sehr viel positiver, und ich habe da sehr viel weniger Angst diesbezüglich.

Ich habe auch nicht Angst davor, dass unsere jungen Leute in einen Raum hineinkommen, aus dem sie nicht mehr herauskommen; auch diese Angst sehe ich nicht. Ich meine, natürlich sind auch durchaus schockierende Videos in diesen Medien vorhanden, aber insgesamt habe ich persönlich nicht den Eindruck, dass dort junge Menschen tatsächlich in eine Richtung gedreht werden, die wir nicht wollen. Also für mich sind die sozialen Medien mit Sicherheit etwas, das unsere Demokratie zusätzlich positiv unterstützen kann und eigentlich auch unterstützt.

Günther Mayr: Herr Stögmüller, bei Ihnen ist das jetzt ja fast ein Programm geworden: Lena Schilling, wahrscheinlich ein großer Star in den sozialen Medien, jetzt für Sie Spitzenkandidatin für die EU-Wahl. Ist das etwas, das Ihnen dort auch hilft? Sehen Sie das auch als Möglichkeit, sich dort sozusagen politisch - -

David Stögmüller: Also Angst, glaube ich, vor den sozialen Medien hat niemand, es wäre auch absurd, dass man Angst vor den sozialen Medien hat. Die Frage ist: Sind soziale Medien wirklich sozial? Wie bauen wir sie auf? Können wir damit arbeiten, dass sie sozial sind und dass die Menschen auch interagieren können? Bei Tiktok sehe ich das eher weniger – das sind halt Leute, die dort ganz konkret etwas machen.

Wenn zum Beispiel Jugendliche zwischen 18 und 24 angeben, ihre Hauptinformationsquelle ist Instagram – ich weiß es jetzt nicht, ich glaube, ich habe auch jemanden vom ORF hier gesehen –, ist die Frage: Wie viele sehen dann ORF? Oder sind es Parteimedien, die von ihnen gesehen werden, und ist das die einzige Information, die sie bekommen, oder halt Propaganda von bestimmten Personengruppen? – Die Frage ist: Wie sozial ist das? Das ist halt eine Frage, die hier ja eh diskutiert wird, die Herr Karmasin hier auch präsentiert hat, und das ist eine Frage, die wir uns stellen müssen.

Ja, natürlich, Politik arbeitet mit sozialen Medien – wir präsentieren uns ja tagtäglich auf sozialen Medien. Wir machen Fotos und teilen sie jeden Tag auf Instagram. Das ist ein Teil unseres Jobs: Wo sonst kannst du hautnah erleben, wo Politiker gerade sind, was sie machen, welche Hobbys sie haben, ob sie Katzen oder Hunde lieben? – Das ist ein Teil unserer Gesellschaft geworden und ist wichtig, auch um uns persönlicher darzustellen. Die Frage ist aber: Artet das in Propaganda aus oder nicht? Ist es ein Faktencheck, und wie kann man das auch verifizieren? – Das ist die Frage: Sind die Bilder richtig oder nicht richtig? Ich sehe in Instagram jetzt noch nicht so die Gefahr, aber da gibt es andere Medien.

Ich glaube, europaweit war der Digital Services Act ein wichtiger Meilenstein, ich glaube aber, er ist noch lange nicht dort angekommen, wo er ankommen soll. Da gibt es noch viele Regularien und Mechanismen, die man auf europäischer Ebene ändern sollte; nationalstaatlich, das wissen wir, ist das nicht immer einfach. Ich glaube, beziehungsweise weiß ich, dass es im Bundeskanzleramt diesbezüglich auch intensive Bemühungen gibt. Gerade auch betreffend Hass im Netz und so weiter, gerade auch, wenn es um Gewalt gegenüber Frauen und entsprechende Fantasien geht, wurden gute Ansätze gesetzt, aber das alles ist ganz, ganz schwierig, wenn wir nicht eine größere Diskussion darüber haben.

Günther Mayr: Frau Brandstötter, das ist wahrscheinlich auch ein bisschen der Spagat der EU: Herkunftsländer, Länder wie Österreich – irgendwie muss das zusammenspielen, und da scheint jetzt eben gegen diese großen sozialen Unternehmen – nennen wir sie jetzt einmal so; ob sie sozial sind, ist eine große Frage, aber nennen wir sie einmal so – wahrscheinlich die Herausforderung auch der Politik zu sein, da dagegenzuhalten.

Henrike Brandstötter: Die Herausforderung der Politik ist es einmal nicht, dagegenzuhalten, weil das teilweise vielleicht auch Aufgabe einer Zivilgesellschaft ist, sondern unsere Aufgabe ist es, Rahmenbedingungen zu schaffen, dass Unternehmen prosperieren können, dass soziale Netzwerke existieren können, dass Menschen sich darin gut bewegen können. Das empfinde ich als unsere Aufgabe.

Ich glaube aber auch – ich habe mir das jetzt gerade überlegt, während wir hier gesessen sind –, dass wir in der Politik schon einen ein bisschen verstellten Blick haben, denn wir müssen kommunizieren. Es ist Teil unseres Jobs, es ist auch Teil der Erwartung an Politikerinnen und Politiker, dass sie kommunizieren.

Ich kann Ihnen eines sagen: Wenn ich heute ein Foto von dieser Veranstaltung auf Instagram stelle, gehen die Followerzahlen zurück. Wenn ich auf Willhaben eine Vase kaufe, dann interessiert das ganz viele Menschen, und auch mein Hund ist ein kleiner Star. Das führt nämlich auch dazu, dass Meta ja vor zwei Wochen bekannt gegeben hat, dass man jetzt beispielsweise bei Instagram politische Inhalte zurückdrängen wird. Das heißt, politische Inhalte werden in Zukunft nur mehr an Userinnen, User ausgespielt, wenn die explizit angeben, dass sie auch politische Inhalte geliefert bekommen wollen. Das verstehe ich auch, weil politische Inhalte den Fluss zwischen Hunden und Vasen und Croissants und einfach einem angenehmen Gefühl stören – plötzlich kommt dann wieder die Realität hinein.

Das heißt für mich, dass wir als Politiker schon einen klaren Blick darauf haben, weniger von uns selbst wegzudeklinieren, was denn soziale Medien leisten können, sondern die Rahmenbedingungen schaffen, damit es ein gutes Umfeld gibt, in dem sich alle bewegen können und wohlfühlen können.

Günther Mayr: Ich denke, das ist ein gutes Schlusswort – also das war jetzt Werbung für den Hund und für die Homepage.

Vielen Dank einmal ans Podium hier für die Diskussion. (Beifall.)

Wir haben jetzt noch Zeit für Fragen, so ist das vorgesehen. Da hinten, glaube ich, gibt es eine.

Teilnehmerin aus dem Publikum: Es ist nicht direkt eine Frage, und ich werde mich jetzt auch nicht bemühen, es als Frage zu tarnen. Ich möchte Folgendes sagen: Ich finde das, was Frau Belakowitsch am Anfang gesagt hat, nämlich dass es keine absolute Wahrheit gibt, grundsätzlich für eine Demokratie für sehr gefährlich, und ich möchte dem auch sehr dezidiert widersprechen. Es gibt in sozialen Medien Falschnachrichten und Lügen, die überprüfbar Lügen sind.

Ich kann ein Beispiel nennen: Ich habe letztens auf Facebook ein Bild kursieren gesehen, bei dem steht, muslimische Frauen dürften ihre Ehemänner kostenlos auf Kur mitnehmen, weil ihr Glaube es ihnen nicht erlaubt, allein auf Kur zu fahren. – Ich habe dann der Sozialversicherung eine E-Mail geschrieben, weil ich das genau wissen wollte, und man hat mir zurückgemeldet, dass das ein absoluter Blödsinn ist, der auch von Mimikama schon überprüft worden ist.

Also es gibt Lügen, und wenn Politiker:innen sich hinstellen und sagen: Es gibt keine absolute Wahrheit!, dann finde ich das sehr gefährlich. Das ist Teil einer Strategie, die man auf Englisch Muddying the Waters nennt, also das Wasser so lange zu trüben, bis man nicht mehr erkennt, was Lüge und was Wahrheit ist. Wenn Politiker:innen sich daran beteiligen, dann finde ich das sehr bedenklich, und gleichzeitig dann zynisch, zu sagen, es liegt in der Verantwortung der einzelnen Menschen, die Fakten quasi selbst zu überprüfen. (Beifall.)

Günther Mayr: Frau Belakowitsch, Sie sind direkt angesprochen.

Dagmar Belakowitsch: Also das war jetzt eine Interpretation Ihrerseits. Ich habe gesagt, es gibt nicht die absolute Wahrheit, und es gibt sie weder in den sozialen Medien – die absolute Wahrheit, die absolute Lüge –, noch gibt es sie in den sogenannten etablierten Medien.

Sie werden auch in etablierten Medien Dinge erfahren, hören und sehen, die nicht der Wahrheit entsprechen, und zwar definitiv nicht der Wahrheit entsprechen. Das passiert nun einmal. Nichts anderes habe ich gesagt.

Wenn Sie eine Falschmeldung in einem sozialen Medium finden, dann steht es Ihnen ja frei, das dort zu melden. Wenn ich dort etwas sehe, das absolut falsch ist, dann werde ich das auch melden. Das steht jedem frei.

Das hat aber nichts mit dem Allgemeinen zu tun, dass ich sage, wir sind von Falschwahrheiten und von Hass bedroht. Wenn man das sieht, wenn man das als verantwortungsvoller Bürger sieht, dann muss man das melden. Ich glaube, das tut auch jeder. Trotzdem, ich bleibe dabei: Unsere Bürger sind mündig genug, abzuschätzen, was Wahrheit und was nicht. Das habe ich gesagt, und nicht, Sie müssen sich um die Fakten kümmern – wenn Sie wissen, dass diese Fakten unrichtig sind, dann bitte melden Sie das! (Beifall.)

Günther Mayr: Gibt es noch Fragen? – Es gibt noch eine Frage, bitte.

Teilnehmer aus dem Publikum: Danke für die Vorträge. Die Analyse war spitze, klar und deutlich. Das ist für mich – ich wollte schon sagen – Wahrheit, was Sie vorgetragen haben, denn die ist wissenschaftlich irgendwie untermauert. Man hat das Gefühl, es wird etwas Wahres gesagt.

Ich möchte noch einen anderen Gedanken hineinbringen: Sie kennen den Club of Rome, 1984. Wir haben heute 40 Jahre später. Wo sind wir? Wo stehen wir?

Mich macht bei den öffentlichen Medien etwas manchmal traurig, wenn man einmal vom Neutralisieren von Menschen spricht und auf der anderen Seite vom Ermorden von Soldaten. Es ist ein bisschen schwierig.

Ich danke, dass ich da sein durfte. Es hat mich sehr interessiert. Ich möchte nur diesen Club of Rome, 1984 ein bisschen mitgeben. Ich glaube, wir sind schon längst hinter 1984.

Günther Mayr: Vielen Dank.

Teilnehmer aus dem Publikum: Danke für das Dialogforum – dass es das gibt. Mein Name ist Hubert Thurnhofer, ich bin Betreiber und Chefredakteur der Plattform ethos.at. Als Philosoph möchte ich sagen, dass natürlich ein Forum, bei dem die Überschrift schon das Ergebnis vorgibt, kein Dialog ist. Da werden mir hoffentlich die Kommunikationswissenschafter recht geben, dass Dialog ein Gespräch ist, das ergebnisoffen ist. Offenheit ist überhaupt das, was mir in dieser Demokratie, wiederum auch als Philosoph, der Karl Popper gelesen hat – „Die offene Gesellschaft und ihre Feinde“ –, mehr und mehr abgeht.

Um hier aber nicht zu kritisieren, sondern auch zu einem konstruktiven Ergebnis zu kommen, möchte ich den Antrag stellen – Entschuldigung, ein Bürger dieses Landes kann hier keine Anträge stellen (Heiterkeit) –, die Anregung in den Raum stellen, das nächste Dialogforum unter dem Titel „Soziale Medien als Chance für die Demokratie“ zu führen, weil es schon auch zur Wissenschaft gehört, dass man die andere Seite untersucht – das ist gut und schön, dass man die Gefahren untersucht, aber man soll dann halt auch die Chancen untersuchen –, und zweitens – noch viel wichtiger – möchte ich anregen, ein nächstes Dialogforum zum Thema Massenmedien als Gefahr für die Demokratie zu veranstalten. Das wäre wirklich ein wichtiges Thema. Ich hätte da insbesondere gerne den ORF, den „Kurier“ und die „Kronen Zeitung“ als Gefahr für unsere Demokratie untersucht.

Im Übrigen bin ich der Meinung – das habe ich schon hundertmal geschrieben, tausendmal, das steht überall, aber niemand widerspricht mir –, dass die Bevorzugung des ORF verfassungswidrig ist – nur, dass ich das an dieser Stelle auch einmal gesagt habe. – Danke für die Aufmerksamkeit. (Beifall.)

Henrike Brandstötter: Darf ich ein Wort dazu sagen?

Günther Mayr: Vielleicht nehmen wir noch eine Frage und dann können Sie gerne etwas sagen.

Teilnehmer aus dem Publikum: Wir erwarten von den Medien den Transport von Wahrheit, Transparenz. Ich bin der Meinung, das wird von den traditionellen oder klassischen Medien nicht immer erfüllt. Meine Frage ist: Was halten Sie von der Plattform Wikileaks? Schadet diese Plattform der Demokratie oder ist sie sehr hilfreich? – Ich möchte eine Antwort von den Politikern.

Günther Mayr: Bitte – und wir müssen dann schön langsam zum Ende kommen.

Henrike Brandstötter: Transparenz, also Sonnenlicht, ist eigentlich das beste Desinfektionsmittel, und natürlich braucht es Wikileaks und andere Whistleblowerplattformen, auf denen Bürgerinnen und Bürger auch Missstände einmelden können, vor allem gerade dann, wenn sie behördlichen Repressionen ausgesetzt sind – deshalb ein klares Ja.

Zum ersten Beitrag: Teil des Antrages angenommen, ja. Im zweiten Teil haben Sie genau das gefordert, was Sie zuvor kritisiert haben. Ich würde den „Kurier“ übrigens nicht mehr als Massenmedium empfinden. Es haben jetzt sehr viele Menschen ihre Jobs verloren. Das ist tragisch für jeden Einzelnen, das ist tragisch für die Medienlandschaft – und es ist erst der Anfang. Wir stehen vor wirklich schwierigen Zeiten und der Herausforderung, dass sehr viele Medien Jobs abbauen müssen, und das führt nicht zwingend dazu, dass die Berichterstattung besser wird, weil dann einfach viel mehr Arbeit und Verantwortung auf jedem Einzelnen liegt.

Günther Mayr: Danke schön. Sie wollten noch kurz etwas sagen? – Bitte kurz, wir sind schon ein wenig über der Zeit.

Nico Marchetti: Es sind nämlich einige Ausführungen in diese Richtung gegangen: Wir müssen einfach damit leben, dass es in der Welt nicht nur Fakten, sondern immer auch Interpretation geben wird. Es gibt Fakten, absolute Wahrheiten, wenn man sie so nennen kann: Ist Nico Marchetti 30 Jahre alt oder 34 Jahre alt? – Da gibt es eine absolute Wahrheit: 34 Jahre.

Zum Beispiel ist aber die Frage: Kann Heinz Faßmann gut kochen?, wahrscheinlich nicht so eindeutig zu beantworten. Es ist nun einmal immer auch Interpretation. Die Debatte bewegt sich nicht nur um Wahrheiten und absolute Fakten, denn es wird immer auch Meinungen geben, Einschätzungen geben und Interpretationen geben, in den sozialen Medien, in den etablierten Medien, in politischen Diskussionen, überall.

Bitte führen wir nicht diese toxische Diskussion, wer in allen Punkten die absolute Wahrheit hat oder sie absolut nicht hat! Es gibt immer auch Interpretation und Meinung und nicht nur Fakten. (Beifall.)

Günther Mayr: Ich denke, das ist ein gutes Schlusswort. – Herr Prof. Karmasin möchte etwas zum Titel sagen. Ich denke, es wurden schon auch die Chancen betrachtet – das war mein Eindruck –, aber wenn Sie kurz darauf reflektieren wollen.

Matthias Karmasin: Dann schnappe ich mir doch noch das Mikro.

Zum Titel: Wie gesagt, der Titel ist ja nicht von uns, sondern wir wurden um eine Einschätzung gebeten, ob die sozialen Medien überwiegend eine Gefahr oder eine Chance sind. Ich glaube, wir haben hinreichend differenziert: Kommt auf den Kontext an!

Wir haben unsere Einschätzung für liberale repräsentative Demokratien vorgestellt. Aber: Schwarz und Weiß gibt es nicht. Auch in der Wissenschaft muss man – und das ist, glaube ich, die Aufgabe der Wissenschaft – differenzieren. Das ist der letzte Satz, den ich so als abschließende reflektierende Fußnote mitgeben möchte:

Erstens: Es gibt einen Unterschied zwischen Fakten und Meinung. Das geht uns in der Debatte leider ein bisschen verloren. Es gibt Tatsachen, ja. Ich kann jetzt auch sagen, ich finde die Schwerkraft total blöd, weil ich mir da beim Auto dauernd neue Reifen und Bremsen kaufen muss, aber ich werde es nicht verändern können. Wissen Sie, was ein Faktum ist? – Naturgesetze sind das, was Sie sozial nicht verhandeln können. Mit der Schwerkraft werden Sie nicht verhandeln können, wenn Sie hinunterspringen und sagen: Eigentlich bin ich der Meinung, ich könnte eh fliegen! – Also die Realitychecks sind da.

Zweiter Punkt: Fakten und Wahrheit. Ich sage das jetzt als Wissenschaftler. In der Wissenschaft fühlen wir uns nicht für die absolute Wahrheit zuständig. Das müssen Sie mit Ihrem Beichtvater besprechen. Worum es uns in der Wissenschaft geht – und das ist für mich eine wichtige Bemerkung –, ist das bestgesicherte Wissen der Zeit. Wissenschaft verfügt über Qualitätssicherungsverfahren. Ja, die sind reformierbar, ja, die sind verbesserbar, aber wenn etwas auf der Homepage der Österreichischen Akademie der Wissenschaften steht, können Sie davon ausgehen, das ist der Stand der Forschung. (Beifall.)

Der Stand der Forschung ändert sich. Gott sei Dank wissen wir inzwischen, dass es nicht die schlechten Gerüche sind, sondern die Bakterien, die bei Operationen zu Infektionen führen, und deswegen waschen sich die Chirurg:innen jetzt Gott sei Dank die Hände, und so weiter und so fort. Das ändert sich, deswegen rede ich vom bestgesicherten Wissen der Zeit. Das bestgesicherte Wissen der Zeit ist etwas, über das die Scientific Community entscheidet und nicht die sozialen Medien und auch nicht die sonstigen Medien, und entscheidend ist auch nicht, ob es Ihnen gefällt oder nicht, sondern das macht die Scientific Community.

Die dritte Bemerkung, und da mache ich Ihnen Lust auf ein bisschen neue Forschung: Es gibt einen Effekt – den werden vielleicht einige kennen –, den Dunning-Kruger-Effekt. Das bedeutet, Leute halten sich für kompetenter, als sie eigentlich sind, und treffen deswegen falsche Entscheidungen. (Heiterkeit und Beifall.)

Wir haben das gerade im Gesundheitsbereich bei 1 000 Menschen untersucht, wenn es um Ernährung und um die Einschätzung von Posts, die sie auf sozialen Medien bekommen, geht, und da kann ich den Optimismus, dass die Leute wissen, was ihnen guttut, leider nicht teilen: Das wissen sie nicht! Leute sagen, sie wissen total gut, was ihrem Körper guttut, deswegen essen sie drei Müsliriegel – diese bestehen aber im Wesentlichen aus Zucker und Trockenfrüchten –, und dann sagen sie: Da habe ich jetzt aber echt etwas für meine Gesundheit getan, denn auf der Packung steht: Früchte, bio und so. – Sie kennen das alles.

Soll heißen: Der Dunning-Kruger-Effekt ist einer der empirisch gut abgesicherten Dinge und bedeutet, dass man sich auf selbstdeklaratorische Kompetenz nicht allzu sehr verlassen sollte. – Aber das  gilt natürlich nur für Fragen zum Thema Gesundheit. (Heiterkeit und Beifall.)

Günther Mayr: Ja, und für Müsliriegel.

Ich muss jetzt nur wirklich auf die Zeit achten. Bitte nur mehr einen ganz kurzen Beitrag, wenn Sie noch etwas sagen wollen.

Stefan Strauß: Nur ganz kurz! – Weil Sie den Arabischen Frühling erwähnt haben und diesen so ein bisschen mystifiziert, möchte ich fast sagen, haben: Der Arabische Frühling ist erstens gescheitert, und zweitens wurden die sozialen Medien gerade da von den Machthabern genutzt, um die die Bevölkerung zu überwachen. Also die Mobilisierung hat auf der Straße stattgefunden, soziale Medien waren da im Endeffekt eine Randnotiz. – Das wollte ich nur, auch wegen der Faktentreue, klarstellen, dass man da ein bisschen aufpassen muss.

Und vielleicht noch kurz zu Russland: Russland überwacht massiv die sozialen Medien global. Das ist ein sehr großes Problem. Das ist eine andere Baustelle, darüber braucht man jetzt vielleicht in diesem Kontext nicht mehr zu diskutieren, aber das dürfte man schon auch nicht ganz außer Acht lassen, würde ich sagen, denn sonst bleibt so das Bild stehen: Die Autokratien haben ihre eigenen Medien, sonst gibt es da kein Problem, und es gibt eh nur positive Effekte von sozialen Medien, und Schwamm drüber. Das sollte man, glaube ich, im Sinne der wissenschaftlichen Diskussion darüber vermeiden. – Danke.

Magdalena Pöschl: Herr Mayr, ich weiß, Sie leiden, aber ich muss auch noch etwas sagen.

Günther Mayr: So schlimm ist es nicht. Es ist einfach mein Geschäft, auf die Zeit zu schauen.

Magdalena Pöschl: Und zwar zur Klarnamenspflicht, die angesprochen worden ist: Das war irgendwie interessant, dass das ein so großes Thema gewesen ist. Historisch muss man dazu sagen, es gab sie ja schon in Südkorea, und dort ist sie krachend gescheitert. Es ist eine Art Untoter der österreichischen Innenpolitik, der immer wiederkehrt, dann aber nie beschlossen wird.

Rechtlich muss man dazu sagen, das wäre jetzt wahrscheinlich ein nationaler Alleingang, der mit dem DSA nicht vereinbar ist – das müsste man genauer prüfen. Sicher unvereinbar ist er mit dem Datenschutz, weil das eine Art Vorratsdatenspeicherung 2.0 wäre.

Und rechtspolitisch muss man sich schon fragen, ob man den Intermediären, die doch wirklich machtvoll genug sind, auch noch diese Daten verpflichtend zuspielen soll.

Das wären also unsere Anmerkungen zur Klarnamenspflicht. – Danke. (Beifall.)

Günther Mayr: Vielen Dank.

Ich bedanke mich beim Podium für die anregende Diskussion – danke fürs Kommen! –, ich danke dem Präsidenten für sozusagen die Herberge hier, und ich danke Ihnen für Ihr Interesse. Ich denke, es war viel dabei, was man mitnehmen kann, vom Müsliriegel bis zum Datenschutz im Bereich der Klarnamensnennung. Es ist ein wirklich komplexes Gebiet, und ich glaube, was Matthias Karmasin sagt, es ist der Stand der Dinge momentan – und deswegen gibt es solche Veranstaltungen, um auch zu etwas Neuem zu kommen.

Ich danke Ihnen herzlich fürs Kommen. Kommen Sie gut nach Hause! (Beifall.)

Schluss der Veranstaltung: 14.53 Uhr