Parlamentarisches Forum
Auswirkungen von KI auf Medien und Journalismus
Transkript
Verfasst von der Abteilung 1.4/2.4 – Stenographische Protokolle
Dienstag, 17. Oktober 2023
9.06 Uhr – 11.32 Uhr
Elise Richter Lokal 2
Programm
Eröffnungsworte
Wolfgang Sobotka – Präsident des Nationalrates
Keynote I: „How AI is changing journalism – Wie KI den Journalismus verändert“
Charlie Beckett – Professor LSE – London School of Economics and Political Science
Keynote II: „Unabhängiger Journalismus in Zeiten von KI und Automatisierung“
Uli Köppen – Leitung AI + Automation Lab und Co-Leitung BR Data – Bayerischer Rundfunk
Keynote
III: „Democracy Dies in Darkness – Fake News, Big Tech und AI:
Hat die Wa(h)re Nachricht eine Zukunft?“
Clemens Pig – Geschäftsführender Vorstand APA – Austria Presse-Agentur
Podiumsdiskussion der Keynotespeaker
Moderation
Günther Mayr – Leiter der
ORF-Wissenschaft
Beginn der Veranstaltung: 9.06 Uhr
Günther Mayr (Moderator): Meine Damen und Herren, ich darf Sie willkommen heißen zu diesem Parlamentarischen Forum zum Thema Artificial Intelligence und ihre Auswirkungen auf Medien und Journalismus – ein Thema, das in diesen Zeiten wahrscheinlich brennender nicht sein könnte.
Lassen Sie mich aber zunächst den Gastgeber der heutigen Veranstaltung, Herrn Nationalratspräsidenten Wolfgang Sobotka, vorstellen. – Schönen guten Morgen! (Beifall.)
Weiters freue ich mich, die Vizepräsidentin des Bundesrates, Frau Margit Göll, begrüßen zu dürfen. – Schönen guten Morgen! (Beifall.)
Ich darf auch Herrn Parlamentsdirektor Harald Dossi begrüßen. – Schönen guten Tag auch Ihnen! (Beifall.)
Das gilt natürlich auch für alle anwesenden aktiven und ehemaligen Abgeordneten des Nationalrates und Mitglieder des Bundesrates sowie die Abgeordneten der Landtage. – Herzlich willkommen auch Ihnen!
Und selbstverständlich die heutigen Vortragenden: Es sind dies Charlie Beckett, Professor an der London School of Economics – schönen guten Morgen (Beifall) –, Uli Köppen, sie ist Leiterin von AI + Automation Lab und Koleiterin von BR Data beim Bayerischen Rundfunk – schönen guten Morgen (Beifall) –, und Clemens Pig, geschäftsführender Gesellschafter der Austria Presse-Agentur – schönen guten Morgen! (Beifall.)
Dass ich als Journalist und Moderator hier stehe, ist in Zeiten wie diesen, in denen wir schon von automatisierten Texten wissen – ob es der Wetterbericht ist, ob es Sportresultate sind –, vielleicht gar nicht mehr so selbstverständlich. Es gibt in meiner Branche – und das kann ich Ihnen einfach aus meiner Erfahrung erzählen – mittlerweile schon einige Unruhe darüber, was da auf uns zukommt, was diese Programme wie Chat-GPT, und wie sie alle heißen, schon alles können. Es stellt sich in der Tat immer öfter einmal die Frage: Wird uns das alle wegrationalisieren, und brauchen wir noch Menschen?
Wenn Sie sich jetzt überlegen, was momentan in diesen fürchterlichen Kriegen passiert, in denen Reporterinnen und Fotografen tagtäglich ihr Leben riskieren und viele davon leider auch sterben: Ist das etwas, bei dem wir Maschinen einsetzen wollen, bei dem wir vielleicht automatisierte Texte, meinetwegen vom Militär oder sonstigem, übernehmen?
Das bedeutet, der Journalismus ist mit großen Herausforderungen konfrontiert, und wir müssen uns einfach die Frage stellen: Wie bekommen wir all diese Informationen überhaupt noch sortiert? Das ist ja eigentlich das Wesen des Journalismus. Wenn jeden Tag 200, 300, 400, 500 Mails plus Agenturmeldungen – ich spreche nur aus meiner eigenen Erfahrung – und noch vieles andere auf Sie einprasseln, wie bewältigt man das? Sind Maschinen da schneller, sind sie besser? Wie urteilen Maschinen und Rechner? Oder müssen wir einfach sagen: Gewisse Bereiche können wir Maschinen überlassen und andere nicht?! – Das sind alles sehr, sehr brennende Fragen: „How AI is changing journalism“ – wie verändert diese sogenannte künstliche Intelligenz, wenn wir sie so nennen wollen, den Journalismus?
Ich darf Herrn Nationalratspräsidenten Sobotka um einleitende Worte zu diesem Thema bitten.
Wolfgang Sobotka (Präsident des Nationalrates): Meine sehr geehrten Damen und Herren! Liebe Abgeordnete! Vor allem: Vielen Dank an unsere drei Experten, die uns heute von verschiedener Seite, aus ihrer Perspektive, Einblick in dieses Thema gewähren!
Wir, das österreichische Parlament, haben im Juni begonnen, uns mit diesem Thema inhaltlich intensiver auseinanderzusetzen, und wir haben dieses Thema für das ganze Jahr zu einem Schwerpunkt gemacht.
Im Juni war quasi eine Aufrissveranstaltung: Was heißt es, sich mit Artificial Intelligence auseinanderzusetzen, wenn in Österreich an vielen Universitäten und Institutionen eine sehr, sehr prominente Forschung betrieben wird? Was heißt das in unserem Rechtsrahmen? Können wir als Gesetzgeber da überhaupt Schritt halten? Es gab auch ethische Fragen, die sich daran angeschlossen haben. Für uns geht es nun darum, den direkten Fokus auf die einzelnen Themen zu richten. Medien als die vierte Gewalt, zu den drei Staatsgewalten, sind für uns eigentlich ein zentraler, wichtiger Faktor in der Demokratie. Wie wird sich dort Artificial Intelligence in vielen Formen auswirken?
Wir sehen aus der Diskussion in Amerika – ich war erst vor wenigen Wochen drüben –, dass die Geschwindigkeit, mit der sich die Computerentwicklung dort abzeichnet, mit der die Algorithmen trainiert werden, eine enorme Größe angenommen hat. Wir wissen, dass die Digitalisierung, wenn Sie das in einen größeren Kontext stellen, dem sechsten Kondratieff entspricht, also einem Wirtschaftszyklus, der, wenn man zurückgeht, solche Entwicklungen immer sehr, sehr angemessen und letzten Endes messbar gezeigt hat und der jetzt eine neue Dimension erreicht hat.
Die ersten Einsätze von Artificial Intelligence waren beim Autopilot in den Siebzigerjahren. In diesen letzten Monaten, würde ich einmal sagen, hat sich etwas entwickelt. Jeder Journalist hat mittlerweile Chat-GPT-4. Man muss diesmal das erste Mal dafür Geld abliefern, aber es ist bei der Recherche auch eine enorme Hilfe. Es ist eine enorme Hilfe, in schnellster Zeit Wissen verfügbar zu machen. Wir haben dadurch Möglichkeiten, letzten Endes Recherchen viel umfassender darzustellen.
Auf der anderen Seite wissen wir natürlich auch, was das für die Personalbewirtschaftung eines Medienhauses heißt. Wir wissen letzten Endes auch, was das heißt: Deepfakes und generative AI haben heute eigentlich bereits in jedem Unternehmen Einzug gehalten. Was es in der Bildgebung heißt: Können wir es noch als wahr und nicht wahr detektieren?
Das Thema Wahrheit ist allerdings kein neues: Seit es Menschen gibt, haben sie sich mit Fakenews auseinanderzusetzen, nur in einer anderen Dimension. Haben wir noch die Tools dazu? Das alles sind spannende Fragen, die uns als Parlament umtreiben, die uns natürlich auch in besonderer Art und Weise herausfordern.
Es ist ein Service, das wir quasi auch in der Diskussion anbieten wollen. Ein herzliches Dankeschön dem Leiter der Abteilung Wissenschaft im ORF, dass er sich auch immer wieder dieser Moderation annimmt – es wird nicht die letzte Veranstaltung sein, die wir zu diesem Thema planen und in Umsetzung bringen wollen.
Vielen herzlichen Dank, dass Sie als Experten zu uns gekommen sind! Wir warten schon ganz gespannt auf Ihre Beiträge, die wir dann auch noch ausreichend diskutieren wollen. In diesem Sinne: einen schönen Vormittag hier in unserem Hohen Haus! (Beifall.)
Günther Mayr: Vielen Dank, Herr Präsident! Ich kann mich erinnern, dass mir einmal ein Sprecher eines britischen Premiers gesagt hat, es gab Zeiten, da hat man immer gesagt, der Journalist schützt seine Quellen. Und dort, hat er gemeint, war es dann so, dass der Einfluss des Premiers auf die Journalisten so war, dass man gesagt hat, die Quelle schützt schon den Journalisten.
Das bedeutet, da arbeiten eben auch immer Menschen, die aufeinander wirken, die sich auch gegenseitig beeinflussen. Es bedeutet, dass auch das ein Risiko in sich birgt: dass Journalismus vereinnahmt wird. Da könnte man ja sagen, dass vielleicht, wenn die KI entsprechend programmiert ist und die Algorithmen entsprechend funktionieren, auch so etwas irgendwie detektiert werden kann und man auf diese Art und Weise zu einer Art größeren Unabhängigkeit kommt.
Natürlich birgt das alles Gefahren in sich, und es wird immer darum gehen, ob der Journalismus unabhängig bleiben kann und ob er so berichten kann, wie sich die Faktenlage eben darstellt. Dass das in der Objektivität, wie sie auch dem ORF vorgeschrieben ist, nie 100 Prozent erreichen kann, ist selbstverständlich auch klar, aber es wird eine tägliche Auseinandersetzung sein.
Wenn wir jetzt von solchen Algorithmen und verschiedenen Computerprogrammen ausgehen, dann wird es darum gehen, dass die sich wiederum gegenseitig kontrollieren. Denn es wird nicht sein können, dass es ein Programm wie Chat-GPT-4 oder sonst etwas ist. Obwohl es natürlich in der Recherche enorme Vorteile bringt, wie es der Präsident angesprochen hat, birgt es eben die Gefahr, dass wir in sich quasi nicht mehr feststellen können, woher es jetzt eigentlich kommt und welche Formulierung wo entstanden und wie und wovon beeinflusst worden ist.
Unabhängiger Journalismus in Zeiten von KI und Automatisierung: Werden es die Automaten sein, die uns dann informieren? Wie werden sie sich auf die Gesellschaft auswirken? Wie wird auch die Politik, wie wird die Gesellschaft damit umgehen? Die Rahmenbedingungen in den Medienhäusern – auch schon angesprochen – werden immer schwieriger. Wir stehen einfach vor ausgedünnten Redaktionen, weil der Druck auf die einzelnen Medienunternehmen sehr groß geworden ist – ob es jetzt um Anzeigen geht oder ob es auf der anderen Seite die großen Medien wie Google und andere sind, die mittlerweile enorme Konkurrenz aufgebaut haben – und es schwierig wird, das miteinander zu verweben und doch für demokratische Medien zu sorgen.
Unabhängiger Journalismus in Zeiten von KI und Automatisierung: Jemand, der sich enorm viel damit beschäftigt hat, ist Charlie Beckett von der London School of Economics and Political Science. – Ich darf Sie um Ihre Worte zu diesem Thema bitten. (Beifall.)
Charlie Beckett (London School of Economics and Political Science): Einen schönen guten Morgen! Ich freue mich sehr über diese Einladung, und ich finde es sehr bemerkenswert, dass das österreichische Parlament beschlossen hat, dieses riesige Thema über das nächste Jahr anzugehen.
Ich entschuldige mich dafür, dass ich Englisch sprechen muss – ich bin eben Brite.
Wie relevant ist dieses Thema? Ich habe mehr als zwei Jahrzehnte als Journalist gearbeitet und viele Veränderungen miterlebt: den Übergang zu digitalen Werkzeugen, dann kam das Internet. In den letzten beiden Jahrzehnten habe ich an der LSE gearbeitet und untersucht, wie sich Journalismus verändert. Ich habe mit Newsrooms auf der ganzen Welt gearbeitet, um zu verstehen, welchen Einfluss das hat. (Der Redner unterstützt in der Folge seine Ausführungen mittels einer Powerpoint-Präsentation.)
In diesem Zeitraum sind die sozialen Medien aufgekommen, was zusammen mit dem Entstehen des Internets nicht nur den Journalismus völlig verändert hat, sondern den breiteren Informationsbereich, in dem wir uns alle bewegen. Wie unsere beiden Gastgeber schon hervorgestrichen haben: Dieser Prozess hat sich in den letzten 12 Monaten enorm beschleunigt – mit jeder Woche, die vergeht. Wir sind uns dieser Aufbruchsstimmung sehr bewusst, der positiven Dinge, die KI bringen kann, nicht nur im Journalismus, sondern beispielsweise auch in der Medizin, aber auch der dunkleren Seite, die KI haben kann.
In anderen Bereichen wie dem Militär ist das sehr beunruhigend, aber auch im Informationsbereich – das wurde bereits erwähnt –: Falschinformation, Propaganda, Hassrede. Das alles hat sich ausgeweitet und beschleunigt, und zwar durch dieselben Technologien, die für Journalisten so viele neue Möglichkeiten bieten. Ich denke also, das Thema ist hoch relevant.
Journalisten müssen viel mehr über KI wissen, auch weil sie natürlich über diese Welt berichten müssen – diese Welt, die durch die KI angetrieben wird. Journalistinnen und Journalisten müssen natürlich auch in der Lage sein, eine Alternative für die Bad News, die unerfreulichen Nachrichten, zu bieten.
Es geht also darum, einerseits den Journalismus als Branche zu retten, aber das ist kein Selbstzweck, weil es natürlich auch noch um politische Faktoren geht, die man berücksichtigen muss. Das wurde bereits vom Nationalratspräsidenten und auch vom Moderator erwähnt. Ich werde noch einige Forschungsprojekte ansprechen, die wir weltweit durchführen, in denen wir uns ganz genau anschauen, wie Journalistinnen und Journalisten mit KI arbeiten und was sie denn dazu meinen beziehungsweise wie sie das Potenzial von KI einschätzen. Das ist Teil eines Projekts, mit dem ich mich seit fünf Jahren auseinandersetze. Ich schaue mir die KI, das maschinelle Lernen, die natürliche Sprachverarbeitung genau an und auch, wie denn die Auswirkungen auf den Journalismus bewertet werden können. Das ist der Inhalt meines Vortrags.
Ich war früher Journalist, und seit etwa 20 Jahren schaue ich mir die Medienveränderungen – und zwar weltweit – im Rahmen der LSE an. Mit welchem Projekt befasse ich mich? – Wir haben vor fünf Jahren eine Untersuchung, eine Umfrage durchgeführt. Daraus ergaben sich dann einige Programme, die unserer Meinung nach die Herausforderungen bewältigen können. Wir haben Schulungsmaßnahmen ergriffen, Lehrgänge für Journalistinnen und Journalisten geschaffen, auch eine Akademie für kleine Redaktionen ins Leben gerufen. Wir wussten natürlich, dass größere Nachrichtenorganisationen die Herausforderungen besser bewältigen können als kleinere Redaktionen, zum Beispiel lokale Medien beziehungsweise Menschen, deren Erstsprache nicht Englisch ist. KI hat da einen Bias, legt also den Schwerpunkt auf die englische Sprache.
Wir schufen auch ein Innovationsprogramm. Uli war einer der Stars dieses Innovationsprojekts, sie wird später zu Wort kommen. Darin arbeiten Menschen aus unterschiedlichen Medienunternehmen und sehen sich diese Herausforderungen an. Einige sind absolut sachlich, also da geht es zum Beispiel darum, Artikel zusammenzufassen, Schlagwörter zu finden, oder um investigativen Journalismus, andere befassen sich mit ethischen Aspekten, also: Kann man KI zum Beispiel nutzen, um gegen den menschlichen Bias, also die Voreingenommenheit, in den Redaktionen vorzugehen? Es geht auch um Onlinedienste, die Journalisten unterstützen: Wir haben da zum Beispiel auch ein Event zu Journalismus und KI auf die Beine gestellt.
Vor in etwa einem Jahr wurde Chat-GPT veröffentlicht, aber auch schon davor wirkte sich KI massiv auf unsere Branche und auch andere aus. Selbst wenn man in den Redaktionen arbeitet, wusste man das vielleicht gar nicht, weil das Ganze sozusagen hinter den Kulissen vor sich geht, aber natürlich kann man es dazu nutzen, Daten zu erheben, Audio zu transkribieren, Factchecking zu machen, Nachrichten zu sammeln und so weiter. Man konnte dadurch auch die journalistische Produktion ankurbeln, man konnte Geschichten generieren. In der Vergangenheit wurden eher einfache Geschichten, also zum Beispiel Wetternachrichten oder auch Finanzergebnisse und Finanzdaten, automatisiert präsentiert – das ist ja relativ einfach –, oder zum Beispiel Horoskope. Man kann Horoskope automatisch generieren, weil man da einfach nicht falschliegen kann. Entschuldigen Sie, wenn Sie große Astrologiebefürworterinnen und ‑befürworter sind. (Heiterkeit.)
Jedenfalls geht es da um Newsdistribution, die Verbreitung von Nachrichten. Was ist das Problem, vor dem wir im Journalismus weltweit stehen? Es ist nicht so, dass wir nicht genügend Journalismus haben, wir haben eigentlich sehr, sehr viele gute Journalistinnen und Journalisten, sondern das Problem ist, dass wir sozusagen mit der Öffentlichkeit oft nicht in Kontakt treten können. Die Öffentlichkeit flieht vor Journalismus: Es gibt zu viel Journalismus, zu viele deprimierende Nachrichten beziehungsweise ist der Stil, das Format das Falsche. KI kann da Abhilfe schaffen, kann die Verteilung, die Verbreitung von Nachrichten optimieren, also sorgt dann dafür, dass man mit Nachrichten versorgt wird, die lokal angepasst sind beziehungsweise den eigenen Interessen entsprechen. Das bedeutet, dass man weniger mit Nachrichten geflutet wird, dass sie einen weniger bombardieren.
All das motivierte in letzter Zeit Reuters. Dort wird zum Beispiel ein Programm genutzt, um einen Filter in sozialen Medien anzuwenden. Dieses Projekt begann schon vor acht Jahren und ist sehr wirkungsvoll. Für riesige Nachrichtenagenturen wie Reuters funktioniert das sehr gut. Sie berichten weltweit, und die sozialen Medien versetzen sie in die Lage, Informationen zu sammeln.
Hier nun ein Beispiel für Personalisierung: Der schwedische Hörfunk, also der öffentlich-rechtliche Rundfunk, befasst sich damit. Mithilfe dieser Programme kann man den Journalisten Material empfehlen und die Journalisten können mithilfe dieses Materials das Ganze besser kontextualisieren und aktualisieren. All das passiert automatisch, um eben Journalistinnen und Journalisten in den Redaktionen zu unterstützen. Man möchte da niemanden ersetzen.
Hier das sogenannte Propensitymodel. Das ist ein technischer Ausdruck; was bedeutet das? – Da kann man mit KI Vorhersagen treffen. Wie kann man einen casual reader, der hin und wieder Websites besucht, umwandeln zu jemanden, der dann für den Content auch zahlt und zu einem Abonnenten wird? Braucht das drei Klicks, sechs oder sieben Klicks und welches Angebot muss ich denn unterbreiten: 10 Prozent Nachlass, 20 Prozent? – KI kann das Fällen dieser Urteile unterstützen. Das passiert also.
Ich glaube, vor etwas weniger als zwölf Monaten hat Open-AI dann Chat-GPT herausgebracht und die Welt damit von Grund auf verändert. Es gab einen riesigen Hype um Chat-GPT, wie man weiß, und damit auch einhergehend ein Maß an Angst: Die Killerroboter werden die Welt überschwemmen und kontrollieren! Jedenfalls ist das transformativ, sorgt also für einen Wandel. Da tut sich ein riesiger Unterschied auf. Jeder kann nun generative KI nutzen. Dafür braucht man keinen Informatikabschluss, da muss man nicht wissen, wie man codet, sondern man tippt einfach eine Frage ein und bekommt dann eine Antwort auf diese Frage. Wenn man mehrere Fragen formuliert, dann bekommt man eben mehrere Antworten. Das ist das Wichtigste, was man in Bezug auf Journalismus erwähnen sollte.
Davor habe ich mit Fachleuten gesprochen, jetzt spreche ich aber einfach mit jedem darüber, wie KI das Leben verändern wird. Viele, viele unterschiedliche Produkte, zum Beispiel Chat-GPT, Midjourney, Synthesia – dabei handelt es sich um ein automatisiertes Text- und Videoprogramm –, Tausende Produkte fußen eben auf diesen grundlegenden Modellen.
Ich werde heute Vormittag nicht die Technologie im Detail schildern, sondern es wird vor allem um die Auswirkungen gehen. Man erkennt, dass die potenziellen Nutzungsmöglichkeiten dieser neuen Technologien doch weitreichend beziehungsweise sehr, sehr vielfältig und natürlich auch mit massiven Auswirkungen verbunden sind.
Was haben wir vor einigen Monaten gemacht? – Wir sprachen mit mehr als 100 Medienunternehmen in etwa 50 Ländern weltweit, und das sind jetzt die Ergebnisse. Ich spreche darüber, weil ich mitteilen möchte, wie denn Journalisten auf diese zweite Welle der KI reagiert haben. Es handelt sich da um eine Art kontrollierter Panik, wenn man so möchte, also man ist freudig erregt, aber man hat da auch das Gefühl, dass eine weitere Flutwelle der Veränderung über uns hereinbricht. Man sollte sich da in Erinnerung rufen, dass Journalistinnen und Journalisten weltweit natürlich unter großem Druck stehen: Sie arbeiten zu viel, bekommen zu wenig Geld, es wird großer politischer Druck auf sie ausgeübt, die Konkurrenz ist natürlich riesig – man denke nur an Onlinecontent – und jeder hasst Journalistinnen und Journalisten. Der Druck ist also immens, dann müssen sie sich auch noch mit KI herumschlagen.
Es liegt auf der Hand, dass man mit generativer KI auch experimentiert, man macht das teilweise auch sehr vernünftig, also kontrolliert, indem man ein Team zusammenstellt, das sich damit auseinandersetzen, damit spielen wird, wenn man so möchte.
Dann gibt es natürlich auch Experimente, die durchgeführt werden. Ich besuche oft Redaktionen, und man sagt mir dort: Uns wurde gesagt, dass man generative AI nicht nutzen sollte! – Ich frage dann: Benutzt ihr sie? – Ja, aber das machen wir persönlich, also individuell! – Man experimentiert in einem sicheren Umfeld damit, um herauszufinden, was denn KI tun kann. Das Experimentieren findet also statt. Wenige Nachrichtenorganisationen und ‑medien greifen direkt darauf zurück, einige schon.
Da erkennt man, dass es natürlich eine Zunahme der Nutzung von KI gibt. Das verzeichnet man, und das hat teilweise mit generativer KI zu tun. Gleichzeitig gibt es die Anwendungen in allen Phasen des Journalismus. Es geht also nicht nur darum, ob Artikel verfasst werden können, sondern es gibt auch andere wichtige Anwendungen, die zu erwähnen sind.
Beispiele dafür, wie KI eingesetzt wird: Da werden Artikel zusammengefasst beziehungsweise schaut man sich an, wie große Datensätze erstellt werden können, und sie wird zum Beispiel auch für das Coden, für die Entwicklung von Codes eingesetzt. In den Redaktionen gibt es Menschen, die coden, die Softwareprogramme erstellen können. Und die Redaktionen, die Journalistinnen und Journalisten können dann Content entsprechend vertreiben und propagieren.
Ich habe da mit einem Codingexperten in einer Redaktion gesprochen – eigentlich hätte er das gar nicht tun sollen –, ich habe ihm gesagt: Sie greifen ja auf Chat-GPT zurück. Ist das Ganze effizienter? – Ja, um 80 Prozent, wir können um 80 Prozent effizienter vorgehen, da kommt es zu riesigen Zeitersparnissen von etwa 80 Prozent. – Wenn man 80 Prozent Zeitersparnis realisieren kann, dann ist das riesig. Hoffentlich erzählt er dann auch den Kolleginnen und Kollegen darüber.
Wir haben mit vielen Leuten gesprochen. Die meisten sagten, dass KI in den Redaktionen in Zukunft mehr eingesetzt wird. Dieses Phänomen wird also nicht verschwinden.
Dann gibt es unterschiedliche Nutzungsmöglichkeiten: Factchecking zum Beispiel, die Contentpersonalisierung, die Zusammenfassung von Texten. Folgendes ist demokratisch gesehen sehr wichtig, nämlich dass man Chatbots einsetzt, um Interviews zu führen, aber auch um ein Gefühl dafür zu bekommen, was denn das Publikum eigentlich meint. Was ist die Meinung des Publikums? Was möchte das Publikum wissen? Das, denke ich, ist doch eine sinnvolle Nutzungsmöglichkeit von KI.
Es gibt natürlich auch riesige Herausforderungen. Selbst in modernen, prosperierenden Ländern wie zum Beispiel Österreich gibt es zu wenig Geld im Journalismus. Da gibt es finanzielle Herausforderungen, vor denen man steht, wenn man versucht, sich an neue Technologien, wie zum Beispiel an diese, anzupassen; Kosten, die damit verbunden sind, Menschen einzustellen, die diese neuen Technologien verstehen. Man konkurriert da mit Unternehmen wie zum Beispiel Google oder Facebook oder auch mit großen Banken, wo sehr viele talentierte Menschen arbeiten.
Es gibt auch ethische und kulturelle Herausforderungen, die es zu bewältigen gilt und die werde ich später dann auch thematisieren. Die meisten Menschen sind aber doch der Meinung, dass generative KI insbesondere neue Chancen, aber auch neue Herausforderungen nach sich zieht.
Not sure, nicht sicher: Diese Säule zeigt auch, dass es da auch sehr viel Ungewissheit beziehungsweise Verwirrung gibt. Diese neue Technologie, generative KI ist sehr neu und daher ist es natürlich, dass auch viele Journalistinnen und Journalisten in den Redaktionen einfach nicht wissen, wie sie damit umgehen sollen.
Das sind die großen Anliegen und Sorgen, die die Menschen haben: Wie kann man als Journalist oder auch als Bürgerin und Bürger diesen Maschinen vertrauen? Manchmal sind sie nicht präzise genug, manchmal haben sie einen Bias und man weiß natürlich auch – und das ist ein Faktum, das man berücksichtigen sollte –, dass Chat-GPT keine Wahrheitsmaschine ist.
Also Chat-GPT weiß eigentlich nichts, ist eine Sprachmaschine, wenn man so möchte, zeigt eine wirklich tolle Performance und beantwortet mit den richtigen Wörtern die Fragen, die man stellt. Es ist wirklich brillant, wenn es darum geht, Informationen zu absorbieren beziehungsweise zu kondensieren, zusammenzufassen. Diese Maschine versteht die Sprache, versteht aber überhaupt nicht, was denn die Wahrheit ist, die dahintersteckt. Das ist natürlich eine Gefahr, wenn es einem um die Wahrheit geht.
Es gibt viele ethische Anliegen, die da ins Treffen geführt werden müssen. Die Blackbox: Man versteht nicht wirklich, wie generative KI funktioniert. Auch jene, die sie erschaffen haben, wissen nicht so genau, warum sie so brillant ist. Das ist eine große Herausforderung. Journalistinnen und Journalisten machen sich zu Recht Sorgen um ihre Werte, die hochgehalten werden müssen. Es gibt natürlich Journalistinnen und Journalisten, die diese Werte nicht verkörpern, aber im Allgemeinen sprechen wir von jenen, die zumindest versuchen, präzise, transparent und rechenschaftspflichtig zu sein.
Die Menschen machen sich natürlich auch Sorgen darüber, dass die Konkurrenz, die durch diese neuen Technologien entsteht, bedeuten wird, dass es zu einem Mehr an Kommerzialisierung und Desinformation kommen wird. Das kann dann natürlich auch zu einem Verlust des öffentlichen Vertrauens führen, was den Journalismus anbelangt. Das ist noch besorgniserregender und betrifft ja nicht nur den Journalismus, sondern Informationen allgemein, nämlich dass man nicht mehr herauszufinden versucht, was denn präzise und was wahr ist. Jeder Politiker, jede Politikerin sollte sich da Sorgen machen – jeder gute Politiker und jede gute Politikerin!
Dann das Tempo: Das Tempo ist außergewöhnlich, alles ist natürlich sehr aufregend. Das fachliche Thema, mit dem ich mich befasse, ist auf einmal sehr dynamisch – und das ist natürlich aufregend, aber gleichzeitig macht es einem auch Angst beziehungsweise stellt es eine Herausforderung für all jene, die versuchen damit zu arbeiten, dar, weil sich das wirklich tagtäglich verändert.
Einige Medien machen sich Sorgen betreffend die Nachhaltigkeit des Journalismus als Geschäftsfeld. Ich darf das nur einmal erwähnen: die Idee der Disintermediation, also die Idee, dass man diese Informationen online bekommt. Das heißt, da ist nichts – also keine Journalisten – zwischengeschaltet. Man geht online und fragt dann Chat-GTP ganz direkt, was der Content ist oder die Informationen sind. Da stellt sich dann natürlich die Frage, wozu es denn Journalisten gibt.
Die Nachrichtenorganisationen, die Medien müssen die richtigen Antworten darauf finden. Sie versuchen, transparenter zu sein, und sie fordern natürlich auch mehr Transparenz von den Tech-Unternehmen ein. Ulis Organisation zum Beispiel kam mit ethischen Leitlinien daher, und diese Leitlinien können wir später auch noch ansprechen. Journalisten können da besser verstehen, was sie tun sollten oder was sie nicht tun sollten.
Ich denke aber auch, dass Richtung Öffentlichkeit ein wichtiges Signal ausgesendet wird, nämlich dass dieses Unternehmen weiß, dass es da ethische Risken gibt, und dann auch sinnvolle Maßnahmen ergreift, diese Risken zu minimieren.
Man sollte sozusagen immer den Menschen berücksichtigen. Es soll immer ein menschliches Urteil dahin gehend geben, welche Tools denn eingesetzt werden sollten. Es sollte da auch immer eine menschliche Kontrolle dieser Instrumente vorhanden sein, aber auch ein Editing, ein Redigieren, wenn man so möchte. So wie man auch mit anderen Kollegen in der Redaktion umgeht, sollte man die KI auch behandeln.
Einige Bereiche werden auch in Zukunft KI-frei bleiben, man muss KI nicht überall einsetzen. Es gibt sehr viel KI, und das bedeutet, dass die menschlichen Fertigkeiten und Kompetenzen in Zukunft vielleicht noch wichtiger werden, also dass man sozusagen in der echten Welt mit Menschen spricht und dass man Urteile fällt, dass man Fachwissen hat, dass man einen ethischen, moralischen Kompass hat. Das sind alles menschliche Qualitäten. KI kann diese nicht imitieren.
Schließlich noch ein wichtiger Punkt, der sich aus der Umfrage ergab: Die besten Medienunternehmen lernen zu kooperieren, und zwar innerhalb der Redaktion – man stellt sicher, dass die Abteilungen miteinander kommunizieren. Man kommuniziert auch mit anderen Medienunternehmen und Nachrichtenorganisationen. Das ist beachtlich, denn – das wissen Journalistinnen und Journalisten natürlich – Journalisten kooperieren instinktiv nicht, auch nicht innerhalb der eigenen Redaktion. Das verändert sich aber. Man arbeitet auch mit Tech-Unternehmen und Universitäten zusammen.
Das sind die Lehren, die man daraus ziehen könnte: Man sollte Informationen über KI sammeln; man sollte die KI-Kompetenz innerhalb der Organisation steigern, also die Kompetenz, wie man die Tools nutzt; es sollten Verantwortungen festgelegt werden – jemand muss sich mit generativer KI befassen und muss das kontrollieren –; man muss testen, wiederholen, experimentieren; es müssen Leitlinien erstellt werden; und man muss natürlich auch zusammenarbeiten und netzwerken. Wenn man all dies bewerkstelligt, dann hat man doch gewisse Chancen.
Das sind die wesentlichen Risken – und vom politischen Standpunkt, wir befinden uns ja hier im Parlament, sollte man die eben nicht außen vor lassen –, die wesentlichen Gefahren, die sich daraus ergeben: Erstens gibt es die Gefahr, die auf KI und generative KI in jedem Kontext anwendbar ist, im politischen Bereich, Bankwesen, Medizin und so weiter.
Wir wissen, dass einige dieser Datensätze und Algorithmen diskriminierend angelegt sind, sie basieren auf Daten oder auf Content mit einem gewissen Bias. Die Menschen greifen leider auch auf Desinformation zurück. Und dann betrifft das natürlich auch fachliche Themen, juristische Fragen, urheberrechtliche Fragen und geistiges Eigentum. Die EU wird bald ein KI-Gesetz veröffentlichen, eine Richtlinie, und die wird sich dann genau damit befassen.
Zu den Risiken für das Medienumfeld im Allgemeinen, zur Abhängigkeit von Technologien zum Beispiel: Die Medien schaffen diese offenen KI-Modelle, diese generativen Modelle nicht, sondern die Tech-Unternehmen schaffen sie. Da besteht also eine Gefahr, die es auch in der Vergangenheit gab. Die Redaktionen hingen zum Beispiel zu sehr von Facebook beziehungsweise auch von Google ab. Wenn es dann zu einem Meinungsumschwung kam, waren die Redaktionen angreifbar. Ich habe Disintermediation – dass es da keine zwischengeschalteten Instanzen gibt – bereits angesprochen. Generative KI wird natürlich dafür sorgen, dass es viel mehr Alternativen gibt, Alternativen zum Journalismus und zum journalistischen Konsum, und dann auch konkrete Risiken für den Journalismus an sich.
Das Problem der mangelnden Präzision: Man muss ja sicherstellen, dass man die Desinformation nicht wiederholt. Man muss sicherstellen, dass der Inhalt kontrolliert und erneut kontrolliert wird. Es kommt zu einer Bedrohung der Qualität. KI kann zum Beispiel mit langweiligen Artikeln aufwarten, man sollte KI aber eigentlich nutzen, um Ressourcen und Zeit zu sparen, damit die Artikel nicht langweilig werden, sondern einen human touch haben. Und dann natürlich die größte Bedrohung: Die größte Bedrohung besteht darin, dass man zurückgelassen wird, dass der Journalismus diese Technologien nicht übernimmt und nicht rasch oder nicht rasch genug reagiert. Die bad guys – Akteure, die Böses im Schilde führen – könnten sich dann durchsetzen.
Das sind die Chancen: Man kann die Effizienz massiv steigern, obwohl man da auch vorsichtig sein muss. Nur durch Automatisierung alleine wird man nicht effizienter, es muss auch begleitende Maßnahmen geben. Durch neue Instrumente wie Übersetzungssoftware zum Beispiel, die sich verbessert – die gibt es bereits –, kann der Journalismus zum Beispiel viel effizienter arbeiten: Google-Translate war ja früher eigentlich ein Witz, jetzt wird das Ganze automatisiert, schnell und qualitätsvoll über die Bühne gebracht.
Dann gibt es natürlich auch neue Produkte und neue Dienstleistungen für das Publikum, Chatbots zum Beispiel. In der Vergangenheit hatte man es mit sehr simplen Chatbots zu tun, wenn man zum Beispiel ein Ticket gebucht hat. Jetzt werden sie immer komplexer und immer effektiver – vielleicht zu effektiv, wenn man so möchte. Da nimmt man fast an, dass es sich dabei um Menschen handelt. Chatbots sind jedenfalls auf den Plan getreten, aber eben auch immer mehr Personalisierung. Natürlich wird es auch neue Möglichkeiten geben, um Propagandabias und Desinformation zu bekämpfen. Vor allem ist aber zu sagen, dass die Nachrichten, Medien, die Unternehmen sich nicht allein damit auseinandersetzen können.
Diese Probleme werden nicht durch Maschinen hervorgerufen, sondern durch Menschen, manchmal durch Politiker oder auch Journalistinnen und Journalisten, die das missbrauchen oder missbräuchlich anwenden. Das ist ein menschliches oder politisches Problem, ein gesamtgesellschaftliches Problem, aber natürlich auch ein technisches.
Die letzte Chance, die ich erwähnen möchte: Die Ressourcen, die sich daraus ergeben, könnten zum Beispiel auch einen menschlicheren Journalismus beziehungsweise Berichterstattung aus der echten Welt ermöglichen.
Das wären die Lehren, die ich gezogen habe. Ich möchte mich herzlich dafür bedanken, dass Sie mir zugehört haben. Danke schön. (Beifall.)
Günther Mayr: Vielen Dank, Herr Beckett, für den tiefen Einblick in dieses Problem, mit dem wir alle zu kämpfen haben. Vielen Dank für den Satz: Bei Horoskopen kann man nichts falsch machen! – Wir wissen ja, dass sie trotzdem von vielen Menschen gelesen werden.
Es sind eben Dinge, die schwer zu kontrollieren sind. Wir hören, dass 85 Prozent der Newsrooms mittlerweile in der einen oder anderen Form mit AI zu tun haben. Ich kann das für unseren Newsroom bestätigen. Es wird auch gar nicht immer darum gehen, dass eine Geschäftsführung oder wer auch immer beschlossen hat: Wir setzen das jetzt ein! Es ist vielmehr so, dass Journalistinnen, Reporter sie für sich nutzen und versuchen, möglichst gut damit umzugehen. Ich denke, es ist deshalb eine sehr wichtige Sache, dass wir als Journalistinnen, als Reporter vielmehr lernen, was KI sein kann, was sie möglich macht.
Was mir ein bisschen Magenbeschwerden macht, ist, wenn man immer wieder hört, dass die, die Chat-GPT und so weiter entwickeln, selbst nicht mehr wissen, warum es so gut funktioniert. Das macht einen ein bisschen nachdenklich. Man könnte den Eindruck gewinnen, dass da Zauberlehrlinge am Werk sind, die vielleicht irgendwann überrascht sein werden, was dabei noch alles herauskommt – auch wenn es immer heißt, der Mensch wird die letzte Kontrolle haben.
Darum, denke ich, ist es sehr wichtig, dass Medien sehr bewusst damit umgehen. Das führt uns zur nächsten Keynote zum Thema „Democracy Dies in Darkness“. Geht die Demokratie in einer seltsamen Nachrichtenwelt unter, in der man den Überblick verloren hat und vor lauter Wald die Bäume nicht mehr sieht? Umgekehrt: „Fake News, Big Tech und AI: Hat die Wa(h)re Nachricht eine Zukunft?“
Jemand, der sich unglaublich viel damit beschäftigt und auch gemeinsam mit Mr. Beckett, wie wir gehört haben, viel entwickelt hat, ist Uli Köppen vom Bayerischen Rundfunk. – Ich darf Sie um Ihre Keynote bitten. (Beifall.)
Uli Köppen (Leitung AI + Automation Lab und Co-Leitung BR Data Bayerischer Rundfunk): Sehr verehrter Herr Präsident! Sehr geehrte Damen und Herren Abgeordnete! Sehr geehrte Damen und Herren! Ich freue mich sehr, heute hier sprechen zu dürfen! Dass das Parlament dieses wichtige Thema aufgreift und noch dazu in Verbindung mit Journalismus bringt, finde ich großartig. (Die Rednerin unterstützt in der Folge ihre Ausführungen mittels einer Powerpoint-Präsentation.)
Ich möchte über die Grundvoraussetzung des Journalismus sprechen. Wie kann Journalismus unabhängig bleiben? Was brauchen wir, um unsere Aufgabe als Journalist:innen in einer Demokratie ausfüllen zu können? Die Frage heute ist: Wie können wir das trotz KI machen? Es gibt viele Herausforderungen zu lösen, einige, die sehr wichtig sind, sind schon angesprochen worden. Wie können wir das mit KI machen? KI und Automatisierung sind einfach neue Werkzeuge in unserer Werkzeugkiste als Journalistinnen.
Ich möchte Ihnen heute einen Blick in unsere Werkzeugkiste ermöglichen, damit Sie sehen, wie diese Dinge in einem Newsroom ganz praktisch eingesetzt werden, und auch, damit Sie erfahren, warum wir das tun. Die Strategie dahinter ist extrem wichtig, denn es geht natürlich nicht darum, hauptsächlich diese Werkzeuge einzusetzen, sondern es geht darum, sie dafür einzusetzen, dass wir unseren Qualitätsjournalismus besser machen.
Es ist bei Charlie Beckett schon angeklungen, KI und Automatisierung sind im gesamten Newszyklus angekommen. Wir Journalist:innen benutzen KI und Automatisierung nicht erst seit Chat-GPT, sondern wir benutzen seit Jahren algorithmische Systeme in der Recherche, über die Produktion bis hin zur Verteilung von unserem Content. Generative KI mit Chat-GPT und Midjourney, also diese Tools, die jeder benutzen kann, verändern die Umwelt, in der wir uns befinden. Diese Systeme sind da und sie werden immer weiter ergänzt. Jede Woche kommen neue Tools auf den Markt, man verliert fast den Überblick, was man nutzen kann, aber es ist so, dass algorithmische Systeme Teil dieses Sockels sind, auf dem wir stehen und auf dem wir uns bewegen.
Lassen Sie uns zunächst auf die Chancen schauen! Es gibt, glaube ich, sehr viel zu den Herausforderungen zu sagen, meistens aber beginnen diese Vorträge mit den Herausforderungen, ich dachte, wir fangen einmal mit dem positiven Teil an: Ein Bereich, in dem KI und Automatisierung helfen, in dem wir diese Technologie nutzen, ist die Investigation, die investigative Recherche. Ich durfte beim Bayerischen Rundfunk drei Teams mit aufbauen. Das eine ist das datenjournalistische Team BR Data, BR Recherche, unsere Kolleginnen von der investigativen Recherche, und das dritte Team ist das AI + Automation Lab, das wir vor über viereinhalb Jahren gegründet haben.
In diesen drei Teams nutzen wir Algorithmen für den Journalismus. Wir haben zwei Standbeine: Das eine Standbein ist der investigative Journalismus und das andere Standbein sind journalistische Produkte, so etwas wie automatisierte Texte, automatisierte Grafiken, automatisierte Newsbriefings. Das ist der Bereich, in dem man KI und Automatisierung einsetzen kann.
Lassen Sie uns zunächst auf den investigativen Journalismus schauen. Ich habe Ihnen ein paar Beispiele von Recherchen mitgebracht, die wir in den letzten Jahren veröffentlichen konnten. Wir haben schon vor Jahren angefangen, zur Schufa zu arbeiten – das ist das Wirtschaftsscoringsystem in Deutschland, mit dem jeder deutsche Bürger gescort wird, das heißt, einen Wert zugeschrieben bekommt, der für seine Wirtschaftlichkeit steht. Über diesen Algorithmus war jahrelang nicht besonders viel bekannt, aber man konnte auch nichts dagegen tun, gescort zu werden, und er ist auch die Grundlage für unser Wirtschaftssystem.
Wir haben damals sehr viele Anfragen an die Schufa gestellt und festgestellt, dass wir von der Schufa sehr wenige Informationen zurückbekommen. Wir haben dann angefangen – in einem offenen Projekt –, Daten zu sammeln. Wir haben zusammen mit zwei NGOs dazu aufgerufen, die Schufa-Daten bei uns anonymisiert einzureichen. Wir haben sie ausgewertet und konnten dann mithilfe von Datenanalyse und Statistik einen Einblick gewinnen, wie dieser Algorithmus funktioniert.
Wir haben während der Pandemie zum Impfalgorithmus gearbeitet und gesehen, dass in Deutschland ältere Bürger gegenüber jüngeren Bürgern, die teilweise schneller einen Impftermin bekommen haben, benachteiligt werden.
Wir haben zu Plattformen wie Facebook und Tiktok gearbeitet und gesehen, dass sehr viel Hassrede auf diesen Plattformen vorgetragen wird. Wir haben mit einem Facebook-eigenen Algorithmus festgestellt, dass Dinge wie Hitlerbilder oder SS-Runen teilweise für Jahre dastehen. Wir, ein kleines journalistisches Team, haben das entdeckt und konnten das dann Facebook vorlegen und sagen: Ihr mit einem großen, riesigen Entwicklerteam müsstet das mit eurem eigenen Algorithmus eigentlich entdecken können!
Ich habe eine Recherche herausgegriffen, die exemplarisch zeigt, wie wir arbeiten. Wir haben ein interdisziplinäres Team aus Journalist:innen, aus Programmierer:innen, teilweise mit tiefem Verständnis für künstliche Intelligenz und Machinelearningalgorithmen, und Produktentwickler:innen aufgebaut. Was wir machen, wenn wir wenige Informationen zu diesen algorithmischen Themen bekommen: Wir setzen technische Experimente auf und wir werten das statistisch aus.
In diesem Fall war es eine Recherche zu einem KI-Recruitingsystem. Ich weiß nicht, ob Sie das wissen, aber Recruitingsysteme, die mit Automatisierung funktionieren, sind auf dem Vormarsch. In den USA ist es, wenn man sich für einen Job bewirbt, häufig so, dass der erste Teil eines Assessmentcenters halbautomatisch funktioniert. Das heißt: Eine Bewerberin sitzt vor einer Kamera und erzählt theoretisch, was sie zum Frühstück gegessen hat, oft ist es ein Jobinterview, aber der Inhalt ist eigentlich egal, und diese Software verspricht, als Hilfe für die HR-Abteilung, für Personaler:innen, die diesen aufwendigen Prozess des Recruitings unter Umständen abkürzen wollen, ein Persönlichkeitsprofil dieser Person zu extrahieren.
Diese Software haben wir uns genauer angesehen, wir haben sie getestet. Sie sehen hier eine Schauspielerin. Diese Schauspielerin hat uns dabei geholfen, denselben Text immer und immer wieder vorzutragen. Wir haben gesehen, dass der Output dieses Algorithmus, also das Ergebnis, relativ stabil war. Sobald aber diese Schauspielerin eine Brille oder ein Kopftuch aufgesetzt oder einfach ein anderes Outfit angezogen hat, hat sich das Ergebnis unterschieden. Jetzt sehen Sie das Ergebnis mit und ohne Brille. Dann haben wir noch technische Experimente durchgeführt. Wir haben dasselbe Video nur in einer Variable verändert, in dem Fall haben wir einfach den Hintergrund ausgetauscht. – Das Ergebnis ist stark unterschiedlich.
Diese Art von Geschichten zu erzählen finden wir wichtig. Ich würde das als Chance für den Journalismus framen, dass wir darüber aufklären können, wo algorithmische Systeme benutzt werden, wie sie benutzt werden und dass sie unter Umständen für manch sensible Bereiche, wie das Recruiting, im Moment nicht geeignet sind.
Wissen Sie: Früher haben wir einfach Leute interviewt, jetzt interviewen wir Daten. Wir sammeln Daten, wir analysieren sie mit statistischen Programmen und wir versuchen, Hypothesen zu beweisen. Wir kombinieren das natürlich mit den investigativen Methoden, die wir seit Jahrhunderten haben, das heißt, wir gehen immer noch hinaus und reden mit Leuten – das ist extrem wichtig. Wir haben aber Werkzeuge hinzugewonnen. Welche Werkzeuge das sind, haben wir in unserem Whitepaper zusammengefasst, das haben wir erst vor ein paar Wochen veröffentlicht, wir haben es Blackboxreporting getauft, denn diese Algorithmen sind oft Blackboxen, also opake, undurchsichtige Systeme, in die man nicht gut hineinblicken kann.
Ich muss sagen, die Firmen, die sie benutzen, machen es uns auch nicht gerade einfach, hineinzuschauen. Da wird der AI-Act unter Umständen einiges ändern, aber es wird Jahre dauern, bis sich Transparenz durchsetzt. Es ist auch Aufgabe der regulierenden Systeme, zum Beispiel der Parlamente, das so auszulegen, dass Journalist:innen ausreichend Einblick bekommen, damit wir unsere Wächterfunktion wahrnehmen können.
Ein weiterer Vorteil, den ich in KI und Automatisierung sehe, ist, dass wir als Medienhäuser unsere Digitalstrategie schärfen können. Ich zeige Ihnen auch gleich, wie wir das tun. Dafür müssen wir in diesen Produktbereich, den ich vorhin erwähnt habe, also die Automatisierungen, die wir im Journalismus verwenden, hineinsehen.
Wir beim Bayerischen Rundfunk benutzen KI und Automatisierung, um unsere User:innen besser zu erreichen. Charlie hat das vorhin schon angesprochen: Das Problem des Journalismus ist nicht, dass es zu wenig gibt, sondern, dass wir die Leute, die wir erreichen wollen und müssen, nicht mehr gut erreichen können. Wir als öffentlich-rechtlicher Rundfunk haben die Aufgabe, Journalismus für alle zu machen. Das ist eine Aufgabe, die immer schwieriger wird, denn wir alle sind es gewohnt, Nachrichten personalisiert zu bekommen. Wenn wir auf unsere Handys schauen, dann sind wir es gewohnt, dass der Newsstream auf unsere Gewohnheiten zugeschnitten ist. Mit dieser Erwartung kommen die User:innen auch zu uns. Wir müssen dieser Erwartung begegnen, allerdings wollen wir das nicht tun, indem wir einfach von Amazon und Netflix kopieren; wir wollen öffentlich-rechtliche Formen der Personalisierung finden.
Wir haben in den letzten Jahren zwei Bereiche herauskristallisiert, die für uns als Öffentlich-Rechtliche interessant sind: das eine ist die Versionierung, das andere ist Regionalisierung von Nachrichten. Beides ist etwas, das wir als Öffentlich-Rechtliche schon immer tun, wir können das aber jetzt mit algorithmischen Systemen unterstützen.
Unter Versionierung verstehen wir, dass Sie immer die Version einer Geschichte bekommen, die für Sie interessant ist. Vielleicht lesen Sie morgens gerne kurz, abends gerne lang, je nach Device, mit dem Sie unterwegs sind – das Gerät ist auch immer wichtig –, dann haben Sie auch Usergewohnheiten – ich lese zum Beispiel gerne aus Bulletpoints –, und das wollen wir gerne bedienen.
Diese Versionen zu produzieren macht allerdings Arbeit in Zeiten von schwindenden Ressourcen, deshalb haben wir uns im AI + Automation Lab in den letzten Jahren darauf konzentriert, Tools, Werkzeuge zu bauen, die diese Versionierung für den Newsroom erleichtern. Hier sehen Sie einen Summarizer. Man muss seit Chat-GPT sehr viel weniger erklären, was dieses Tool macht – man pastet einen langen Text, einen Nachrichtentext in dieses Feld, man drückt auf den Knopf und bekommt eine kurze Version heraus. Wir experimentieren mit verschiedenen Sprachen, um herauszufinden, wo die Fakten möglichst korrekt sind, denn das Problem besteht nach wie vor darin, dass wir die Fakten verifizieren müssen.
Während der Coronapandemie hat uns diese Automatisierung sehr geholfen. Wir haben die gesamten Coronadaten automatisiert erhalten, sie sind zweimal am Tag vom Robert-Koch-Institut aktualisiert worden, wir haben eine Datenpipeline vom Robert-Koch-Institut zu uns gebaut und haben am Ende verschiedene Formen der Automatisierung gehabt. Hier sehen Sie unseren Coronagrafikeditor, da mussten die Redakteure nur auf einen Button klicken und sagen: Ich möchte gerne eine Grafik für Twitter, für das Fernsehen oder einen anderen Social-Media-Kanal!, und dann haben sie die korrekten Daten in der korrekten Grafik herausbekommen. Das hatte für uns den strategischen Vorteil, dass wir die Datenarbeit bei uns in der Datenredaktion zentralisieren konnten.
Sie können sich gar nicht vorstellen, wie viele Redaktionen bei uns angerufen haben, als die Pandemie angefangen hat, und gefragt haben: Wie sollen wir das denn machen? Wie sollen wir jeden Tag den Überblick über die Daten behalten? Wo sollen wir denn hingucken? Habt ihr einen Tipp für uns? Dann haben wir das relativ schnell automatisiert und so konnten wir Zeitgewinne ermöglichen. In der gewonnenen Zeit haben die Kollegen in der Wissenschaft Analysen gemacht, oder die Leute, die in der Region waren, konnten mit den Leuten draußen sprechen, also sie haben die Aufgaben gemacht, die wir als Journalist:innen wahrnehmen wollen.
Das zweite Feld der öffentlich-rechtlichen Personalisierung, das wir interessant finden, ist die Regionalisierung. Da geht es, genauso wie bei der Versionierung, nicht um Filterbubbles, es geht nicht darum, dass wir eine Vorauswahl an Nachrichten für die Menschen vornehmen, das den menschlichen, kuratierenden Kolleg:innen im Newsroom wegnehmen, sondern es geht darum, dass wir die Nachrichten auf die Interessen unserer User:innen zuschneiden.
Ich habe Ihnen einen Prototypen mitgebracht, der in den nächsten Tagen in den Launch geht – das können Sie bei uns auf der Seite auch selber ausprobieren –, wir haben ihn Remix-Regional getauft. Das ist ein personalisiertes Audio-News-Briefing, damit bekommen Sie die Nachrichten, die um einen bestimmten Ort herum passiert sind. Das heißt: Sie geben eine Postleitzahl ein, Sie lassen sich orten, und dann wählt ein Algorithmus die Nachrichten aus, die um diesen Ort herum passiert sind und Sie bekommen ein personalisiertes Audio.
Wir haben das an Usern getestet und festgestellt, dass wir damit interessanterweise Menschen von Jung bis Alt erreichen, weil das ein Interesse ist und sie das bei uns finden, weshalb sie zu uns als Öffentlich-Rechtliche kommen.
Was uns aber noch viel mehr interessiert, ist die dahinterliegende Herausforderung, die wir mit dieser Art von Projekt lösen können. Wir bezeichnen solche Projekte heimlich als trojanische Einhörner. Das ist etwas, das uns dabei hilft, in der Redaktion ein Thema einzuführen, eine technische, eine kulturelle Veränderung zu bewirken und damit gleichzeitig ein Produkt auf den Markt zu bringen.
Jetzt wird es ein ganz klein wenig technisch, aber ich verspreche, nicht lange. Das funktioniert nämlich so, dass wir eine neue Infrastruktur, eine neue Metadateninfrastruktur, im Hintergrund aufbauen. Wir nehmen nämlich das lineare Audio, das wir im Radio versenden, zerschneiden dieses Audio mit einem Algorithmus in die einzelnen Nachrichten und vertaggen diese dann. Das bedeutet, das bekommt einen Aufkleber mit dem Ort, wo das stattgefunden hat. Dann stecken wir es in die Cloud.
Diese kleine Wolke, die Sie hier sehen, ist für uns das Symbol für Unabhängigkeit, denn wir können mit dieser Infrastruktur in Zukunft Audio personalisieren, wie wir wollen, unabhängig von Plattformen, unabhängig von externen Anbietern. Wir wissen jetzt auch noch nicht, wie wir in zwei bis drei Jahren personalisieren wollen oder müssen. Das heißt, das ist für uns eine Form der zukunftssichernden Infrastruktur.
Wie es schon angeklungen ist, dient KI auch als Werkzeug im Newsroom. Ich führe Sie durch ein paar kleine Beispiele durch, bei denen wir das benutzt haben. Zum Beispiel bei den Xinjiang Police Files – das war diese internationale Recherche zur Situation der Uiguren in China –: Das war eine Recherchekooperation. Da lagen sehr viele Excel-Files auf Mandarin vor. Es gibt bei uns im Newsroom sehr wenige Leute, die Mandarin beherrschen. Wir haben diese Excel-Files mithilfe eines Sprachmodells im Bulk ins Englische übersetzt. Dann konnten Reporter:innen darin suchen. Die eigentlich interessanten Files wurden nochmals Übersetzer:innen vorgelegt. Das war eine Recherche, die ansonsten nicht funktioniert hätte. Dafür haben wir einen Natural-Language-Generation-Experten bei uns im Newsroom beschäftigt, der uns dabei geholfen hat, diese Übersetzung zu machen.
Wir benutzen Sprachmodelle, um Kommentarfilter zu bauen. Das hilft unserem Newsroom dabei, durch diese große Menge an Userkommentaren durchzublicken, eine Debatte zu führen und sich auf die wirklich wesentlichen Kommentare zu konzentrieren.
Wir benutzen Automatisierung, um Content zu automatisieren. Das ist das, was viele andere schon seit Jahren machen. Es wurden schon Börsenberichte genannt, Sportberichte, auch Wahlen sind interessant, also all diese Bereiche, bei denen es viele Daten gibt und bei denen wir als Bayerischer Rundfunk feststellen, wir brauchen eine regionale Fassung davon oder wir können damit den Newsroom so unterstützen, dass sie diesen Teil nicht mehr machen müssen – sie lesen drüber und ergänzen das und das wird veröffentlicht.
Eine weitere Chance, die ich sehe, ist die Schärfung unserer digitalen Ethik. Im Moment veröffentlichen sehr viele Newsrooms ihre Guidelines. Wir haben unsere schon 2020 veröffentlicht. Die wichtigsten Punkte waren, dass der Newsroom in Kontrolle bleibt, dass egal, was wir veröffentlichen, Leute das in einer Form kontrollieren können, dass wir Transparenz walten lassen – das heißt, dass wir Dinge auszeichnen, die wir automatisieren –, und – das wichtigste Argument –, dass es einen Mehrwert für uns oder für die User:innen draußen bieten muss.
Als wir das veröffentlicht hatten, kamen sehr, sehr viele Leute auf uns zu. Wir hatten die Chance, darüber nachzudenken – über unsere eigene ethische Basis, auf der wir stehen. Ich stelle mit Blick auf andere Newsrooms fest, dass diese Debatte wieder vermehrt in Newsrooms stattfindet: Warum machen wir Journalismus? Warum benutzen wir diese Technologie? Was können wir für unsere User:innen tun, dass unser Journalismus wirklich besser wird? – So etwas dann aufzuschreiben und zu veröffentlichen, führt dazu, dass man standfest wird.
Lassen Sie uns zu den Herausforderungen kommen. Ich möchte das mit Blick auf diese zwei Bereiche machen, auf die wir uns spezialisiert haben. Der investigative Journalismus: Bei diesem sinkt die Transparenz. Es steigen die Herausforderungen, aber die Transparenz sinkt. Das Problem ist, dass viele dieser Algorithmen, die wir uns anschauen wollen und müssen, proprietär sind; das bedeutet, dass sie Firmen gehören. Damit können sich Firmen immer hinter einem Geschäftsgeheimnis verstecken. Dieses Geschäftsgeheimnis ist übrigens sinnvoll. Es macht überhaupt keinen Sinn, Wirtschaft zu schädigen, indem man Geschäftsgeheimnisse ausplaudert. Auch als Journalist:innen haben wir da kein Interesse daran.
Ich kann Ihnen aber sagen, man kann sehr viel transparenter mit Algorithmen umgehen, ohne das Geheimrezept zu verraten. Das haben wir damals bei unserer Schufa-Recherche gesehen und das sehen wir bei vielen anderen Recherchen. Algorithmen zu erklären, ist Aufgabe der Firmen, die sie benutzen. Da gibt es im Moment sehr, sehr wenig Bewusstsein dazu – auch das wird im AI-Act verhandelt. Es ist aber auch teilweise Aufgabe der Politik, darauf hinzuweisen, dass es Aufgabe der Firmen ist, damit transparent umzugehen.
Für Journalist:innen macht das die Arbeit sehr schwer. Wir stellen Presseanfragen und bekommen keine oder schlechte Antworten. Unser Workaround ist, dass wir diese statistischen Experimente aufsetzen, von denen ich erzählt habe. Das können nicht viele Newsrooms tun, denn diese interdisziplinären Teams gibt es nicht häufig. Deshalb haben wir dieses Whitepaper veröffentlicht, damit auch Journalist:innen, die als Einzelkämpfer unterwegs sind, eine Möglichkeit haben, dazu zu recherchieren. Das Problem bleibt aber bestehen, und es macht uns die Arbeit schwer.
Im Produktbereich – das hat Charlie schon anklingen lassen – gibt es eine wachsende Abhängigkeit. Wir sprechen auch von einem Vendor-Lock-in, also dem Eingesperrtsein mit einer Firma, die man beschäftigt. Ich gebe Ihnen ein einfaches Beispiel. Wir haben schon über die Userkommentare gesprochen: Das ist ein Problem, das alle Newsrooms auf der ganzen Welt haben, dass es unsere Aufgabe ist, eine Debatte zu führen, aber gleichzeitig werden wir von der Menge an Userkommentaren erschlagen. Jetzt ist es häufig so, dass wir unsere eigenen Daten nehmen, um einen fremden Algorithmus damit zu trainieren. Das heißt, wir implementieren eine Software oder wir bauen eine Schnittstelle und machen es möglich, mit jemand anderem zusammenzuarbeiten. Je besser dieser Algorithmus wird, umso abhängiger werden wir von diesem Service – das hat sich mit lernenden Algorithmen noch verstärkt. Diese Abhängigkeit gab es schon vorher, aber das ist ein Problem, das weiterhin größer wird und mit dem wir umgehen müssen.
Wie schaffen wir es also, dass wir unsere Unabhängigkeit bewahren? Einige dieser Lösungsschritte, die ich gleich vorschlagen werde, sind schon die letzten 20 Minuten angeklungen.
Die Grundlage dafür, die ich sehe, ist, dass wir diese interdisziplinären Teams in Medienunternehmen aufbauen – Charlie hat das schon gesagt. Wir arbeiten plötzlich mit Leuten zusammen, mit denen wir vorher als Journalist:innen nie zu tun hatten. Das Technikdepartement ist bei uns mittlerweile ein wichtiger Teil unserer journalistischen Arbeit. Wir arbeiten mit dem Archiv, das unsere Metadaten verwaltet, wir arbeiten mit der Verwaltung, weil die plötzlich an unseren Algorithmen interessiert sind. Das heißt, es brechen sehr viele Silos auf, was eine sehr gute Sache ist. Das muss man aber im Management unterstützen.
Wir arbeiten mit vielen externen Expert:innen. Wir sprechen immer von Peer-reviewed Journalism. Wir versuchen, die Methoden, die wir statistisch entwickeln, immer mit Wissenschaft abzusichern, immer mit Wissenschaftlern Ping Pong zu spielen, ob die Methoden, die wir entwickeln, so in Ordnung sind. Sie sind für uns ein wichtiger Partner. Unsere Rechtsabteilung ist für uns einer der wichtigsten Gesprächspartner, weil wir wissen müssen, ob wir uns mit dem, was wir tun, immer noch auf legalem Boden befinden.
Eine bewusste Datenkultur gehört mittlerweile zu den Führungsaufgaben im Journalismus. Es muss uns bewusst sein, dass wir auf Datenschätzen sitzen, dass das, was wir veröffentlichen, nicht nur Qualitätsjournalismus ist, sondern dass es auch wertvolle Daten sind und wir diese Daten dafür benutzen können, um eigene Modelle zu trainieren. Zum Beispiel trainieren die Kolleg:innen bei uns im Archiv ein bayerisches Sprachmodell, weil der Bayerische Rundfunk der einzige Anbieter der Welt ist, der all diese verschiedenen bayerischen Dialekte im Archiv hat. In Österreich verstehen Sie das: In Bayern ist es so, dass von Dorf zu Dorf unterschiedliche Dialekte existieren. Das ist ein wichtiges Beispiel, wenn wir darüber nachdenken, dass in Zukunft unser Inhalt vor allem über Voice zugänglich sein wird. Man sitzt zum Beispiel im Auto und spricht mit seinem Radio – wenn man Dialekt spricht, wird man da keinen Zugang haben. Da gibt es lustige Videos von Schotten, die versuchen, mit ihrer Alexa zu sprechen – das ist in Bayern genauso, das versichere ich Ihnen. (Heiterkeit.)
Es ist wichtig, dass wir uns um unsere digitale Infrastruktur kümmern. Das Beispiel, das ich vorhin genannt habe: Das hat relativ lange gedauert, bis wir das in unsere Systeme gebracht haben, und wir sind da immer noch dabei. Wir haben Legacysysteme, Systeme, die teilweise so alt sind wie das Internet. Die müssen wir ersetzen, die brauchen Schnittstellen zueinander. Das heißt, man muss Ressourcen investieren, die Medienhäuser häufig nicht haben.
Das hier ist ein wunderbarer Ort, um die Idee eines Fonds noch einmal anzusprechen, eines Fonds für journalistische Infrastruktur. Ich sage Ihnen etwas: Das ist tatsächlich entscheidend. Ob wir in Zukunft einen unabhängigen Journalismus haben werden, wird davon abhängen, wie unsere Cloud aussieht. Das ist davon abhängig, wie wir unsere Daten vorhalten, das ist davon abhängig, wie wir im Unternehmen unsere Daten zum Fließen bringen, und dafür muss man Leute finden, die wir von der Technik abwerben müssen. Wir in München haben zum Beispiel Google und Apple als Konkurrenten. Der Journalismus ist nicht einmal ansatzweise so gut ausgestattet wie diese Technikunternehmen, die ähnliche Arbeitskräfte brauchen. Das heißt, ich glaube, wir brauchen Fördermodelle für Technologie im Journalismus.
Kollaboration ist, glaube ich, der Kern dessen, was wir im Unternehmen und auch darüber hinaus tun – das hat Charlie schon anklingen lassen. Das ist ein Punkt, der mir persönlich wichtig ist und wofür hier auch eine gute Stelle ist: Wir müssen darüber nachdenken, dass die Sprachmodelle, die wir verwenden und die hinter Chat-GPT liegen, tatsächlich nicht nur ein Werkzeug sind, sondern Weltmodelle, meine Damen und Herren! Da fließen unsere Werte rein. Im Moment benutzen wir die Modelle von anderen Ländern, was in Ordnung ist, aber wir haben dem nichts entgegenzusetzen.
Was wir im Moment brauchen, ist eine Kooperation zwischen Politik, die unter Umständen das Funding bereitstellen kann, Medien, die die Daten bereitstellen können, und ganz vielen anderen Institutionen wie Bibliotheken, mit all dem, wo wir unseren Kulturschatz verwahren, unseren digitalen Kulturschatz, um damit europäische Sprachmodelle auf die Beine zu stellen, die in zwei bis drei Jahren konkurrenzfähig sind gegenüber dem, was in Amerika und in China entwickelt wird. Wir sind damit spät dran, aber ich glaube, wir sind nicht zu spät dran. Ich bin im Gespräch mit KI-Entwicklern, die sagen, wir haben tatsächlich eine Chance, das konkurrenzfähig machen zu können.
Ich werbe an jeder Stelle, an der ich kann, für diese Idee, die für Unabhängigkeit im Journalismus und darüber hinaus sorgen wird, von Wirtschaftsförderung gar nicht zu sprechen. – Vielen herzlichen Dank. (Beifall.)
Günther Mayr: Vielen herzlichen Dank. Wie Sie gesehen haben, ist das Beispiel von Bewerbungsgesprächen zum Teil doch einigermaßen erschreckend, dass die Kameras von solchen Systemen natürlich Dinge berücksichtigen, die man als Mensch eigentlich gar nicht berücksichtigen würde – ob es jetzt eine Bücherwand dahinter ist oder ob es etwas anderes ist. Wir wissen auch von den Überwachungskameras in den USA, dass sie von Anfang an schwarze Menschen benachteiligt haben. Die sind dann in den Gefängnissen gesessen, weil das System als solches das einfach so beurteilt hat. Das sind Daten, die da einfließen – da kann es wirklich sehr schnell gefährlich werden. Ich bin voll bei Ihnen, ich wäre da auch ein Vertreter eines europäischen Weges – Herr Präsident, Sie haben da sicher gute Zugangsmöglichkeiten! Es ist einfach so, dass wir da auch wieder von den großen Konzernen abhängig sind, die diese Systeme dominieren.
Was den investigativen Bereich betrifft, würde ich schon noch gerne anmerken: Der investigative Journalismus wird immer sehr stark persönlichkeitszentriert sein. Was nämlich passiert, wenn Sie so wollen – ich komme selbst auch aus dem investigativen Bereich und mache es immer wieder –: Wenn Sie, und das ist noch immer der häufigste Weg, irgendwelche Unterlagen oder einen USB-Stick bekommen, dann werden Sie den Teufel tun, den mit Chat-GPT oder so etwas auslesen zu lassen, weil das dann ganz schnell im Internet ist. Das heißt, man sucht dann eher wieder Inselrechner, auf denen man sich das einmal vorsichtig ansehen kann.
Da ist eben der menschliche Journalismus, denke ich, immer noch sehr, sehr gefragt, wiewohl natürlich diese Systeme in der Recherche und im Abgleichen von Dingen, wenn man riesige Datenmengen hat, enorm wichtig und enorm hilfreich sind. Nur haben Sie automatisch immer das Problem: Sie sind dann in der Cloud, und dort sind dann schon wieder die Zugriffe möglich. Der Journalismus wird sich also doch immer wieder in verschiedene Bereiche aufgliedern.
Ich denke aber auch, die Datenstruktur – wir sind ja alle von den Daten überfordert – ist ein enorm wichtiges Ding, auch die digitale Ausrichtung von verschiedensten Unternehmen, auch den großen Medienunternehmen – da bin ich voll bei Ihnen. Wir schauen immer neidvoll auf die großen Konzerne, was die schon alles haben, und müssen uns eigentlich manchmal mit Werkzeugen behelfen, die wiederum sie uns zur Verfügung stellen, und das macht einen auch nicht wirklich froh. Deshalb ist es, denke ich, sehr, sehr wichtig – was Sie im Bayerischen Rundfunk sehr, sehr gut und sehr stark machen, wie ich meine –, sich selbst Dinge zu bauen. Das ist möglich, das ist bei uns genauso, dass uns die Technik, die verschiedenen Mitarbeiter:innen, die sehr viel Erfahrung in diesen Bereichen haben, unglaublich tolle Werkzeuge zur Verfügung stellen können, die unabhängig von ganz großen Konzernen und anderen sind.
Ein Bereich, der natürlich im Generieren von Nachrichten ganz weit vorne ist, sind die Nachrichtenagenturen, die natürlich auch im Zuge der Zeit immer mehr Konkurrenz aus dem Internet bekommen. Man muss ja sagen, alle Menschen, die im Internet unterwegs sind und fünf Zeilen schreiben, glauben mittlerweile, dass sie Journalist:innen und Reporter:innen sind, und damit entstehen natürlich sehr viele – das Wort Fakenews ist schon sehr abgenutzt – Nachrichten, die eben nur noch schwer einzuordnen sind.
Bleiben wir zum Beispiel bei der Coronaflut, bei der man ja jetzt einmal sehen muss, dass es bei Millionen Fachartikeln, alleine in den medizinischen Fachmagazinen, für Journalisten eigentlich fast nicht mehr möglich ist, da den Überblick zu bewahren, weil es auch die Fachfrauen und Medizinerinnen und Ärzte nicht mehr schaffen, da einen Überblick zu bewahren. Das heißt, da sind auch diese großen Agenturen schon ein sehr, sehr wichtiger Filter, weil in sehr, sehr vielen Medienhäusern dann doch noch sehr stark auf diese zugegriffen wird.
In Österreich ist es die Austria Presse-Agentur. Sie werden wahrscheinlich bemerken, wenn Sie in Zeitungen lesen oder auch im ORF, online oder sonst wo, wie oft doch das Kürzel APA noch dort steht. Das heißt, das sind Kolleginnen und Kollegen, die ganz weit vorne sind. Der geschäftsführende Vorstand der APA wird uns jetzt hoffentlich Einblicke geben, wie er die Zukunft einer Nachrichtenagentur im Spannungsfeld von solchen Systemen sieht, die Nachrichten generieren. – Clemens Pig, vielen Dank. (Beifall.)
Clemens Pig (Geschäftsführer APA): „Russland hat seine Einheit wiederhergestellt. Die Tragödie von 1991, diese furchtbare Katastrophe unserer Geschichte, diese unnatürliche Zerrissenheit, ist überwunden.“ – Was Sie eben gehört haben, war ein vorbereiteter Jubelkommentar der staatlichen russischen Nachrichtenagentur RIA Novosti, neben Tass noch die viel ärgere Hardcorestaatsagentur aus Russland, die diesen Jubelkommentar vorbereitet und zwei Tage nach Beginn der Invasion in die Ukraine irrtümlicherweise versendet hat.
Sehr geehrter Herr Präsident! Sehr geehrte Abgeordnete! Sehr geehrter Herr Direktor! Geschätzte Damen und Herren! Eingangs vielen Dank, dass Sie in diesem Haus diese heutige Veranstaltung organisieren. Es gibt für mich keinen besseren Platz, um über das heutige Thema zu reden. Wir haben viel darüber gehört – und ich werde natürlich auch ein wenig darauf eingehen –, wie künstliche Intelligenz unser Geschäft verändert, und ich tue das, wie von Herrn Mayr angekündigt, aus der Perspektive der Nachrichtenagenturen.
Warum? – Sie alle konsumieren täglich Nachrichten, die hochgradig und im Onlinebereich mehr denn je auf das Material von Nachrichtenagenturen zurückgehen, auf Texte, Bilder, Grafiken, Videos. Was Sie alle nicht sehen, ist, was da im Hintergrund auf der globalen Bühne passiert. Es gibt weltweit 140 Nachrichtenagenturen. Nur 20 davon sind staatlich unabhängig.
Ich habe versucht, einen Kriterienkatalog festzulegen: Woran erkennt man die Unabhängigkeit einer Nachrichtenagentur? – Wenig überraschend: Die meisten dieser unabhängigen Agenturen stehen im Eigentum von Medien in westlichen Demokratien, das Führungspersonal wird von der Generalversammlung gewählt und nicht von der Politik bestellt und all diese Dinge. Von diesen 20 Agenturen, die staatlich unabhängig sind, sind elf in Europa – die APA ist eine dieser Agenturen, andere sind im skandinavischen Raum, im Benelux-Raum, in UK, in Italien.
Bis zu zwei Drittel aller massenmedialen Informationen in Europa gehen auf dieses Modell der Nachrichtenagenturen zurück. Es findet ein Kampf um die Lufthoheit statt, vor allem zwischen den unabhängigen Agenturen des Westens und jenen der östlichen Hemisphäre.
Die Nachrichtenagenturen sind ein sehr enges Geschäftsmodell. Es gibt die Amerikaner, AP, die Kanadier, die zitierten europäischen Agenturen und Japan. Das zeigt die Geschichte dieser Nachrichtenagenturen, die viel mit Demokratie zu tun hat, gegründet in dieser entstaatlichten und entnazifizierten Form nach dem Zweiten Weltkrieg.
Dieses eingangs erwähnte Zitat war letztlich die Motivation für mich, auch auf persönlicher Ebene – ich war bis vor Kurzem auch Präsident aller 32 europäischen Nachrichtenagenturen im Agenturverbund –, dieses Buch zu schreiben: „Democracy Dies in Darkness“. Der Übertitel – ein Zitat – ist der „Washington Post“ entlehnt, die diesen Slogan seit der Wahl Donald Trumps unter ihren Medienmarken trägt.
Die vergangenen dreieinhalb Jahre waren für uns als Gesellschaft, für die Wirtschaft, für jeden Einzelnen, aber auch vor allem für uns Medienunternehmen eine massiv schwierige Zeit. Beginnend mit der Coronapandemie und den Lockdowns haben wir in Europa und in Österreich zum ersten Mal Phänomene real erlebt, die wir bis dato nur aus Amerika kannten. Verschwörungstheorien und Desinformation, die wir in diesem Volumen nur aus Amerika kannten, wurden meines Erachtens mit Beginn dieser Pandemie von den digitalen Rändern der Gesellschaft in die Mitte unserer Straßen gespült.
Es war für uns zum ersten Mal, auch als APA konkret, nicht mehr möglich – von sogenannten Anticoronademonstrationen in Wien –, ungeschützt und völlig frei zu berichten. Wir mussten nicht nur unser Haus schützen, wir mussten auch unsere Kolleginnen und Kollegen schützen.
Dann kam mit den Lockdowns und vielen anderen problematischen Dingen der Vorwurf der Lügenpresse. Das halte ich übrigens nicht nur für ein Problem der Medien, sondern vor allem auch der Politik und der Wissenschaft. Alle diese drei Systeme stehen massiv unter Druck. Daher ist auch die psychologische Grundlage, warum ein Teil der Bevölkerung Medien, Politik und Wissenschaft ablehnt, eine viel tiefer gehende und komplexere Frage, als dass nur wir Medien allein dieses Problem lösen könnten.
Wir sind dann nach dem letzten Lockdown doch guten Mutes in das Jahr 2022 gestartet. Dann kam dieser brutale Krieg mit allen Folgeerscheinungen, die uns wirtschaftlich so unter Druck setzen: Inflation, Papierpreise, das wissen wir alles. Und dann kam das nächste big thing, das Thema des heutigen Tages: Generative AI. Wir in der APA haben uns seit vielen Jahren mit künstlicher Intelligenz beschäftigt. Bis zum Eintritt von Generative AI war das aber so etwas wie eine dumme KI, eine hart verdrahtete KI, wo auf Basis von harten Sprachmodellen Wahlergebnisse automatisiert in Textform erstellt werden konnten, Wenn-dann-Beziehungen, die man semantisch programmieren musste. Das ist nicht mehr der Fall, das wissen wir alle. Es ist jetzt eine wesentlich smartere KI.
Wir haben schon und werden vermutlich dann auch am Podium über sich verändernde Berufsbilder im Journalismus reden, über Prozesse reden, über Tools reden, über Einsatzgebiete reden. Ja, das ist alles richtig, aber das für mich übergeordnete und viel zentralere Thema ist die Frage: Was passiert vor dem Hintergrund bereits bestehender digitaler Filterblasen, Verschwörungstheorien, Desinformation in Kombination mit diesen neuen AI-Technologien? Und seien wir ehrlich: All das, was wir derzeit an künstlicher Intelligenz sehen, ist der Gruß aus der Küche. Die Geschwindigkeit, die uns hier auch mehr oder weniger überrollt, zeigt, da wird noch viel mehr kommen. Es wird leider in Kombination mit gezielten Desinformationskampagnen aber eines noch viel mehr kommen, nämlich eine regelrechte Woge an Falschinformationen und Desinformation.
Dankenswerterweise und richtigerweise wird das in der aktuellen Kriegssituation in Israel gerade thematisiert, was hier jetzt schon passiert. Auch wenn die menschliche Psyche wesentlich weniger Technologie benötigt, um aufs Glatteis geführt zu werden, wird es natürlich in der Zukunft zu einer Art Match zwischen Fakenews, die künstlich generiert sind, und Factcheckingtools, die ebenfalls auf Basis künstlicher Intelligenz arbeiten, kommen.
Jedenfalls stehen wir mit 2024 vor einem Superwahljahr: Wahlen in Amerika, Wahlen zum Europäischen Parlament und, Herr Präsident, wenn Sie meine Einschätzung teilen, Nationalratswahlen in Österreich. Das bedeutet natürlich, dass wir alle besonders sensibilisiert sein müssen, nicht nur die Politik, sondern gerade wir Medien.
„Democracy Dies in Darkness“: Es gibt aus Sicht der Medien zwei Arten, wie man der Demokratie das Licht ausdrehen kann – wirklich jetzt aus Sicht der Medien. Das eine ist, dass Autokraten und Diktatoren immer einen Dreistufenplan verfolgen, wenn sie aus offenen Gesellschaften Diktaturen machen wollen. Der erste Schritt ist immer, freie Medien abzudrehen. Diktatoren und Autokraten wissen um die Bedeutung freier Medien, natürlich wissen sie das ganz genau, deshalb gehen sie diesen ersten Schritt. Sie rauben damit auch einem pluralistisch-politischen Diskurs und insbesondere der Opposition natürlich dementsprechende mediale Fläche. Das ist der zweite Schritt: das Abdrehen der Opposition. Und der dritte Schritt ist die Unterwerfung der unabhängigen Justiz unter staatliche Kontrolle.
Da müssen wir nicht nur nach Russland schauen. Roskomnadsor, die staatliche russische Medienaufsichtsbehörde, hat wenige Tage nach Kriegsbeginn – was letztlich dann der Auslöser für mich als Präsident der europäischen Agenturvereinigung war, die Russen in diesem Agenturverband zu suspendieren – allen russischen Medien verboten, egal ob staatlich, privat, halb privat, Begriffe wie Krieg, Kriegstote oder Invasion zu verwenden. Es muss nicht nur nach Russland geschaut werden, es reicht auch der Blick in östliche europäische Nachbarländer Österreichs, um zu sehen, was hier gerade passiert – und wir sollten viel, viel genauer hinsehen.
Neben klassisch autokratischen Strategien ist ein zweiter wesentlicher Punkt, der heute auch schon angesprochen wurde, ein ganz anderer, nämlich die wirtschaftliche Entwicklung der Medien im Zusammenhang mit künstlicher Intelligenz, die uns letztlich die Frage stellen lassen muss: Wie geht es mit Medien, konkret mit unabhängigem Journalismus, weiter?
Die wirtschaftliche Lage – das soll jetzt kein Lamento werden – ist uns, glaube ich, allen bekannt, ist ausnehmend schwierig – ausnehmend schwierig! Die Werbegelder gehen seit Jahren zu den Digitalgiganten, insbesondere aus den USA und mittlerweile auch aus China. Die Produktionskosten gehen massiv nach oben, und es gelingt aus Sicht der privaten Verlegerwelt nur schleppend, Bezahlinhalte auch tatsächlich zu kapitalisieren.
Österreich erlebt an den kleineren Rändern des Tageszeitungsmarktes, dass mit Jahresende zwei weitere kleine Tageszeitungen in Österreich, eine davon die „Wiener Zeitung“, aus unterschiedlichen Gründen nicht mehr in dieser tagesaktuellen Form existieren. Also auch hier sehen wir doch schon lange die Effekte, die da passieren.
Wie reagieren nun die Medien? Eine zentrale Reaktion war, noch losgelöst vom wirtschaftlichen Modell, mit eigenen Factcheckingressorts zu arbeiten. Die Ersten, die meines Wissens – ich habe das auch im Buch aufgegriffen – in Butscha vor Ort waren, waren die Kollegen der Agence France-Presse; die AFP ist dankenswerterweise mit rund 35 Bild- und Videoredakteuren in der Ukraine vor Ort. Einer der Kollegen ist vor einigen Monaten bei einem Raketenangriff getötet worden. Die Franzosen waren die Ersten, die diese Bilder in Butscha gesehen haben. Das, was wir in den Medien sehen, sind ja natürlich nicht die Bilder, die die Pressefotografen eingefangen haben, diese Bilder werden dann ja zu Recht auch medientauglich aufbereitet. – Die Antwort der Russen kam sehr schnell: Die Bilder aus Butscha seien gestellt, es wären inszenierte Aufnahmen.
Factchecking ist eine eigene redaktionelle Disziplin, die beginnt, Inhalte aus den sozialen Netzwerken insbesondere auf deren Faktizität zu überprüfen. Und wir wissen aus der Forschung zu Desinformationsinhalten: Wenn Factchecking daneben steht, erhöht sich die Chance, dass sich Menschen auch eher wieder öffnen. Das zweite große Thema ist natürlich AI im Engeren. Ich denke, AI ist, so wie vieles im Leben, weder zu verteufeln noch zu glorifizieren. Es ist eine Riesenbedrohung, aber ich sehe für uns Medien vor allem eine Jahrhundertchance, die jetzt abzuholen ist oder auch nicht abzuholen ist. Wenn man AI anschaut und vor allem Chat-GPT anschaut: Ich glaube, man muss – und auf diese Punkte gehe ich nicht ein, die waren in den beiden Vorträgen vorhin schon, denke ich, gut abgebildet – unterscheiden zwischen Anwendungen im Journalismus einerseits, Anwendungen in der Kommunikation andererseits und dann zwischen Prozessebene und Produktebene.
Als wir vor wenigen Monaten selber Chat-GPT die Frage gestellt haben: Was ist die APA, die Austria Presse-Agentur?, war die Antwort: Ein vom Innenministerium finanziertes öffentlich-rechtliches Unternehmen. – Hey, das sind echte Fakenews! Ich bin immer vorsichtig mit dem Begriff Fakenews, wir leben vielmehr in einer Desinformationswelt, die Vorurteile streut, Zweifel sät, Zerrbilder erzeugt. Echte Fakenews sind ja oft, in Österreich zumindest, nach wie vor eher selten, finde ich, aber das waren echte Fakenews.
Und: Warum ist man manchmal zu Recht begeistert von den Antworten, die Chat-GPT liefert, und warum kommt manchmal einfach nur Bullshit heraus? Haben Sie sich diese Frage einmal gestellt? – Ja, zu Recht. An dieser Ecke lohnt es sich, und vor allem für Journalismus lohnt es sich, um zu verstehen, wie diese neuen Modelle funktionieren, sich die Arbeit anzutun, mit dem eigenen IT-Chef oder Chief Digital Officer oder der Officerin hinzuschauen. Das ist auch schon erwähnt worden: Es sind großartige Large Languagemodels, die nichts anderes tun als in Bruchbruchbruchteilen von Sekunden – deshalb ist das eigentliche Modell dahinter Cloudcomputing; das wird uns auch noch vor ganz andere Fragen mit Blick auf Energie stellen – Wahrscheinlichkeiten zu berechnen – eine Wahrscheinlichkeit nach der anderen in einer Art Endlosschleife. Sie können so weit in den Sourcecode von Chat-GPT einsteigen, dass Sie sehen, mit welchen Wahrscheinlichkeiten hinterlegt Chat-GPT sagt: An dieser Stelle im Satz kommt jetzt ein Wort mit K und keines mit Z.
Sie beginnen zu verstehen, wie es funktioniert, und das ist wichtig, weil: Auch ich sehe an dieser Stelle den Einsprungspunkt aus demokratischer Sicht, aus Mediensicht, wie wir Medien – sowohl journalistisch, als auch als Industrie – damit umgehen können.
Ich verlasse jetzt ein wenig die unmittelbare Anwendungsebene, weil es mir wichtig erscheint, auf diese Jahrhundertchance einzugehen: Es passiert gerade offensichtlich eine nächste Technologierevolution, die wieder anders gelagert ist als jene, die vorher war: Social Media beispielsweise. Es muss uns Medien jetzt gelingen, diese Technologierevolution nicht wiederum an uns vorbeiziehen zu lassen, nicht wiederum jener Akteur zu sein, der eben fleißig teuer produzierte Inhalte – auch für teures Geld – erstellt, aber die kommerzielle Abschöpfung erfolgt wieder woanders. Ich teile all diese Befunde der Kollaboration und der europäischen Lösungen.
Diese Jahrhundertchance liegt darin, dass wir Medien jetzt nicht hergehen und unsere Archive für billiges Geld an die großen Hersteller schlichtweg verscherbeln – die Ersten beginnen damit, leider, auch auf Ebene der Agenturen, für ein paar Hunderttausend Euro. Archivmaterial ist Goldstandard! Goldstandard! Warum sind denn die alle derzeit so interessiert an uns Medien? – Genau deshalb, weil wir etwas haben, was sie nicht haben: verifizierte, geprüfte, faktenbasierte Nachrichten.
Ich teile auch Ihren Befund, Herr Mayr, zum Thema Geist aus der Flasche. Als vor vielen Monaten die ersten Chefs der Tech-Konzerne gemeint haben, es benötigt AI-Regulierung, musste man sich ja richtig anhalten am Tisch. Jene Akteure, die in Brüssel über Jahrzehnte jegliche Form von Regulierung weglobbyiert haben, stehen unisono da und sagen: Wir benötigen AI-Regulierung!, auch wenn sie sich selber dann wieder relativieren und sagen: aber nicht für unser eigenes Unternehmen! – Spätestens zu diesem Zeitpunkt haben bei mir die Alarmglocken geschrillt, weil auch mir natürlich die Vermutung gekommen ist: Die entdecken jetzt, was sie da programmiert haben und was zum Selbstläufer wurde.
Warum begreife ich künstliche Intelligenz aus Sicht der Medienindustrie? – Ich komme halt mit meinem Blick der Nachrichtenagenturen, aber wir stehen im Eigentum der Medien, wir sind da also sehr, sehr eng verbunden, und weil ich tatsächlich der Meinung bin, diese Systeme funktionieren nur, wenn der Input gut ist. – Charlie hat es gesagt, Sie haben es gesagt.
Warum soll aus Chat-GPT etwas Gescheites herauskommen, wenn der Input Blödsinn ist? Warum? – Das passiert eben nicht, und darin liegt diese Riesenchance für uns. Der größte Rohstoff, den Medienunternehmen in dieser Krise haben, sind ihre Newsrooms, ihre Journalistinnen und Journalisten. Diese bilden die Grundlage und diese schaffen die Wertschöpfung, die aus demokratischer Sicht notwendig ist, die aber offenbar auch aus Sicht der AI-Anbieter für diese Trainings, die sie benötigen, so wichtig ist. Eine Textmeldung, auch ein Videobeitrag ist wesentlich mehr als nur die jeweilige, einzelne, isolierte Textmeldung. Wenn Sie Medienproduktion kennen, wissen Sie, draußen, um eine Nachrichten- oder Medienmeldung herum, sind Metadaten – Metadaten sind wichtig für den internationalen Nachrichtenaustausch –, und drinnen, in den Texten selber, haben Sie verifizierte Nachrichten – Personen, Politiker, Parteien, Sportler, Künstler, Orte, Unternehmen, ganze Inhaltskonzepte, die verifiziert sind.
Wir Journalistinnen und Journalisten haben über Jahrzehnte hinweg Goldstandards geschaffen – durch die manuelle Arbeit. Es ist also sehr wohl richtig, zu sagen, dass ein neues Zeitalter anbricht, in dem man sagen kann – in der alten Denke: Daten sind das neue Öl –, dass wir alle hier tatsächlich auf einem großen Schatz sitzen, den wir tagtäglich erweitern. Deshalb bin ich so dagegen, diesen Schatz auf billige Art zu versilbern.
Das führt mich jetzt weiter zu meinem neuen Strategiemodell, ich nenne es Newstech-Matrix, bei dem es schlichtweg darum geht, mit der eigenen Produktion von Medien – was ihre Daten betrifft – in Kooperation zu gehen. Jedes Medienunternehmen hat seine eigenen Datensilos im nationalen, aber auch im internationalen Bereich. Wir alle – ORF, „Standard“, „Presse“, „Krone“, „Kurier“, APA – prüfen laufend und haben alle Tausende von Personen, Unternehmen, Orte, whatever in den eigenen Datensilos. Die Vision ist, zu sagen: Wir schaffen aus uns und unserer Branche heraus zunächst einen österreichischen und dann einen europäischen Wissensraum auf unseren Servern, die die Daten schützen, in autonomer Kontrolle von uns, und wir trainieren und beginnen – die vielen, die wir ja auch sind –, AI zu trainieren.
Das ist eine Vision, die teilweise bereits Realität wird. Die APA ist als einziges österreichisches Unternehmen Teil eines neuen Konsortiums auf europäischer Ebene – wir haben vergangene Woche darüber informiert und den Zuschlag erhalten –, gemeinsam mit 43 anderen europäischen Medienunternehmen – es ist auch die EBU dabei, es ist WAN-Ifra dabei, es sind Nachrichtenagenturen wie DPA, AFP dabei, es sind einzelne Medientitel dabei – in einem schönen Projekt, das sich Trusted European Media Data Space nennt. Es klingt immer alles sehr sperrig, aber was da genau passiert, ist die stückweise Umsetzung, dass wir uns europäische Infrastrukturen schaffen, dass wir die Inhalte, die wir alle erstellen, im kooperativen Modell zusammenführen.
Ich weiß, wovon ich rede, die APA ist sogar eine Genossenschaft, wir sind ja ein Gemeinschaftsunternehmen. Ich bin ein großer Fan dieses Gedankens, gemeinschaftlich Dinge zu produzieren. Wir bauen mit diesem Projekt die Datenautobahnen der europäischen Medien- und Kommunikationszukunft. Wir legen auch die Mautstellen fest, wir legen die Technologien fest.
Mir ist es wichtig – weil: ich sitze ja hier als Praktiker des Medienmanagements –, dass wir beginnen, auch ins Tun zu kommen, ins Handeln zu kommen. Deshalb rede ich jetzt unmittelbar wenig über einzelne AI-Anwendungen in den Newsrooms, weil das ja auch schon passiert ist. Mein Job ist es viel eher, zu schauen: Wie organisieren wir medienübergreifende Kooperation zum Thema AI in Österreich?– Das wird aber viel zu wenig sein. Wie schaffen wir es auch auf europäischer Ebene? Und: Wer vertritt unsere Interessen dort? Und: Wie kommen wir zum Geld? – Ich bin ganz bei Ihnen, ohne Fördergelder wird es nicht gehen. Mir geht es weniger um die direkte Förderung von Journalistinnen und Journalisten – da bin ich sehr zurückhaltend, und aus APA-Sicht haben wir ja auch kein Staatsgeld im Unternehmen –, mir geht es vielmehr – wo ich viel offener bin – um die Frage der Infrastrukturen.
Das halte ich eigentlich für zentral und da bin ich der Meinung: Wenn es uns gelingt, in diesen europäischen Regionen, Sprachräumen – natürlich auf Basis von faktenbasiertem, verifiziertem Input – die große AI-Kiste zu öffnen, aber in einem definierten Rahmen, in einem sicheren Rahmen, wo Guidelines natürlich ein ganz zentrales Thema sind, die europäische Datenhaltung ein ganz zentrales Thema ist, wo wir das autonom tun, wo wir die Technologien, wenn wir sie schon nicht bauen, auf jeden Fall selber betreiben und kooperativ betreiben, dann ist das, meine ich, eine Jahrhundertchance für uns. Auf was wollen wir noch warten? Wo wollen wir noch zuschauen, was passiert?
Der AI-Act: Ich war im Mai bei Věra Jourová und habe mit ihr darüber lange gesprochen. Sie weiß das auch, natürlich, wie wir alle: Dieser AI-Act wird kommen, er wird aber vermutlich – und das ist auch völlig nachvollziehbar – spät oder zu spät kommen.
Ich bin der Meinung, wir müssen uns – ich schaue nur immer ein wenig auf die Uhr –, schon auch aus einer Eigenverantwortung heraus, jetzt neu sortieren und neu aufstellen. Deshalb finde ich es so charmant, derzeit auch die Welt der Nachrichtenagenturen – auch mit diesem Buch – ein wenig vor den Vorhang zu holen. Wir arbeiten sui generis im Hintergrund, wir haben keine Endkonsumentinnen und -konsumenten, aber wir haben – am Beispiel der APA – eine starke Rolle als Gefäß, als Gemeinschaftsunternehmen der Medien, des ORF und der privaten Verleger, genauso wie in Deutschland die DPA. Alle unabhängigen Agenturen charakterisiert, unabhängig von ihrem engeren Rechtsmodell, diese Art des Wirtschaftens. Deshalb nehmen diese Agenturen einerseits eine Propagandarolle ein – wenn wir vor allem auch in die östliche Hemisphäre schauen: Die staatliche chinesische Agentur Xinhua hat 13 000 Mitarbeiterinnen und Mitarbeiter und damit wesentlich mehr Belegschaft als alle europäischen unabhängigen Agenturen zusammen. Es wird nur im Schulterschluss gehen, egal ob man Kooperation sexy und spannend findet oder auch nicht, das ist gar nicht mehr die Frage. Es wird meines Erachtens in der Frage: Wie bespielen wir künstliche Intelligenz, wie bauen wir unsere europäischen Infrastrukturen auf?, unausweichlich sein, das kooperativ zu tun.
Das sind die Ansätze, die mich sehr bewegen, auch aus einer europäischen Perspektive, da liegen wirklich Handlungsstränge drinnen. Wir beginnen und haben ja auch schon begonnen, AI zu trainieren. Das ist alles gut und richtig, aber ich denke, wir müssen unsere Datensilos öffnen – und dieses Projekt auf europäischer Ebene tut das; es ist in der Zwischenzeit auch gelungen, dass alle elf unabhängigen Agenturen Europas ihre gesamten redaktionellen täglichen Basisdienste bereits seit acht Wochen in ein gemeinsames sicheres System spielen – und da künstliche Intelligenz zu trainieren beginnen.
Es liegt so viel Bias in diesen AI-Tools. Fragen Sie nach bei Chat-GPT! Lassen Sie Chat-GPT eine Situation beschreiben, in der ein Mann und eine Frau in höherwertigen Berufen tätig sind! – Ja, im Regelfall ist der Mann der Arzt und nicht die Frau. Dieser Bias gehört weg, auch der sprachliche Bias gehört weg. Dafür braucht es Journalismus, dafür braucht es uns – weil das auch die Frage war.
Ich würde zum Schlusssatz kommen: Ich sehe das grundsätzlich alles sehr positiv – Glas halb voll –, auch mit Blick auf die neuen Berufsbilder. Es gelingt jetzt, finde ich, auch uns Medienunternehmen, die beim first choice, wo junge Menschen hingehen wollen, nicht mehr ganz oben stehen, durch diese Veränderungen in den Berufsbildern in diesem vielzitierten Employerbranding auch attraktiver zu werden.
Meines Erachtens ist in der Frage: Was ist überhaupt eine redaktionelle Geschichte, was ist die Story?, in diesem journalistischen Selektionsprozess mit viel AI-Unterstützung – wir bekommen jeden Tag 20 000 Eingangsmeldungen aus der ganzen Welt, 20 000!, unser Haus verlassen täglich 500, die eine Hälfte eigenrecherchiert, die andere aus diesen 20 000 –, natürlich schon jetzt viel Technologie drinnen. Aber dieser Auswahlprozess – Quellenrecherche, Quellenvielfalt, Quellenglaubwürdigkeit und letztlich Freigabe – wird auf Sicht menschlich bleiben.
Ich mag auch den Begriff Roboterjournalismus nicht – das ist Bullshit, das ist derzeit nicht der Fall. Wenn es uns gelingt, auf der Effizienzebene diese stille Revolution einzuleiten, damit unsere Redaktionen entlastet werden und endlich mehr Zeit für das haben, was ihre große Kraft und Kompetenz ist, dann: wunderbar. Ich sehe derzeit vielmehr in den Kommunikationsberufen Jobkiller durch AI, nicht so sehr im Journalismus, und alles dazwischen – aus journalistischer Sicht –: viel im Bereich Produktion, automatisierte Abfragen, Zusammenfassungen. Natürlich wird man die komplette Orgel der AI-Tools bespielen müssen – das wird auch ganz massiv in den Redaktionen stattfinden und das Berufsbild verändern.
Ich darf mit einer Vision schließen, die bereits an manchen Ecken Realität wird: dass wir Medien uns organisieren, dass wir Medien uns dieses Thema diesmal nicht mehr aus der Hand nehmen lassen. Es ist high time. Ich hoffe, Sie haben recht, dass es nicht zu spät ist. Ich glaube, wir Praktiker können auch gar nicht anders, als daran zu glauben. Ich bin damit auch in Summe zuversichtlich, dass uns das gelingen wird. – Vielen, vielen Dank. Danke schön. (Beifall.)
Günther Mayr: Herzlichen Dank. Man kann sagen, das ist ein deutlicher Appell an Kooperation, aber auch eine positive Sicht in die Zukunft.
Was uns Journalisten natürlich, glaube ich, auch immer gut ansteht, ist, die Dinge nicht zu schwarz zu sehen, denn das ist auch etwas, das wir von den Menschen immer wieder mitbekommen. Diese constructive news, wie man sie so schön nennt, also auch Geschichten, die Positives transportieren und nicht alles schwarzmalen, sondern versuchen, auch Lösungen zu sehen oder zu beschreiben, sind auch ein Erfolgsmodell im Journalismus, das sich immer wieder gezeigt hat.
Es wäre jetzt eine Podiumsdiskussion geplant. – Herr Präsident, sollen wir eine Pause machen oder machen wir gleich weiter? – Wir machen gleich weiter.
Dann darf ich die Keynotespeakerin und die zwei Keynotespeaker auf die Bühne bitten – wo auch immer Sie Platz nehmen wollen.
Mr. Beckett, ich würde gerne bei Ihnen beginnen: Controlled panic haben Sie das genannt. Ist es mehr Kontrolle oder mehr Panik? Was denken Sie?
Charlie Beckett: Was wir gerade gehört haben, war: mehr Kontrolle als Panik. Auch von Uli haben wir mehr über Kontrolle als über Panik gehört. Ich denke, dieses Projekt der Partnerschaft ist eine sehr strategische Vision.
Die guten Nachrichten: Die Institutionen mancherorts sind bemerkenswert resilient. Wir haben ein paar Nachrichtenorganisationen verloren, oder vielleicht ziehen sie nach. In Großbritannien haben wir in den letzten Jahren nur eine Zeitung verloren, das ist der „Independent“; diesen gibt es zwar noch, aber nur mehr online.
Ich denke, wir müssen unsere öffentlich-rechtlichen Nachrichtenorganisationen bewahren. Die haben dieses Erbe des öffentlichen Dienstes, und sie haben sowohl ein tatsächliches Contentarchiv als auch Erfahrung. Sie haben langjährige Beziehungen zu ihrem Publikum.
Also ich denke, in Panik geraten sollten wir nicht, aber durchaus wach sein und aufpassen. Es gibt eine gewisse Verwirrung im Moment, das ist natürlich. Jeder, der sagt, er weiß genau, was zu tun ist, lügt. Niemand weiß das. Man kann aber versuchen, es herauszufinden. In diesem Sinn ist es so, dass viele der Medienmarken, die wir in Westeuropa immer noch haben, sich recht beeindruckend verhalten. Ich bin beeindruckt von der Art und Weise, wie sie an diese Herausforderung herangehen.
Günther Mayr: Frau Köppen, bei Ihnen war ja diese Ausrichtung in Richtung Technik sehr stark: Wir müssen uns da sehr gut aufstellen, was das Technische betrifft. – Besteht da nicht die Gefahr, dass man jetzt die Kapazitäten von den Redaktionen Richtung Technik hinüberschiebt und die Journalisten und Reporterinnen dann doch stärker unter Druck kommen?
Uli Köppen: Ich glaube, dass der Druck auch daher kommt, dass wir jahrelang diese technologische Entwicklung verpasst haben und dass wir teilweise auch wenig strategisch auf technische Entwicklungen reagiert haben. Und das ist auch natürlich, denn wenn man ins Management schaut, dann ist es so, dass da häufig Leute sitzen, die im Print groß geworden sind, die im Fernsehen und im Radio groß geworden sind. Der digitale Nachwuchs kommt jetzt so peu à peu ins Management, es gibt aber immer noch eine Glasdecke für digitalen Nachwuchs im Senior Management, und genau das ist der Punkt, wo man angreifen kann, um diese Verschiebungen auf eine schlaue Art und Weise zu machen.
Ich habe vorhin schon anklingen lassen: Man muss es zu seiner eigenen Mission ausrichten, man muss schauen, was man als Medienhaus denn tun möchte, und dann die Technologie gezielt einsetzen. Mit der Schrotflinte zu schießen macht überhaupt gar keinen Sinn, sondern man muss es wirklich gezielt machen.
Aber diese Entscheidungen gezielt zu treffen, da gibt es einfach wenige Leute, die das in Geschäftsleitungsabteilungen tun können. Das wäre, glaube ich, der Hebel, wo wir ansetzen könnten, um zu verhindern, dass vom Qualitätsjournalismus Eckchen rausgebrochen werden, denn wie gesagt: Die Technologie ist dazu da, um Journalismus zu unterstützen, und nicht andersherum.
Günther Mayr: Das heißt, das liegt dann doch eher in den höheren Etagen, also in den Geschäftsführungen und an denen, die eigentlich Trends erkennen sollten und das vielleicht nicht ausreichend tun?
Uli Köppen: Na ja, es liegt daran, dass dieser Nachwuchs fehlt. Es liegt daran, dass jahrzehntelang Leute in den Journalismus gegangen sind, die gerne die Seite zwei schreiben, was großartig ist und was wir brauchen, aber wir haben einfach wenige Leute, die mit einer anderen und mit einer weiteren Perspektive auf Journalismus blicken.
Ich selber bin Journalistin, ich habe in einer Printzeitung angefangen, ich habe Lokaljournalismus inhaliert. Ich bin dann erst ins Digitale gegangen, und das hat mir sehr gut getan, also ich glaube, ich würde eine traditionelle journalistische Ausbildung immer mit anderen Perspektiven kombinieren. Ich glaube nicht, dass dieses Berufsbild in irgendeiner Weise obsolet oder am Ende ist, ich glaube nur, dass man es ergänzen muss. Ich glaube, dass wir das sehr lange verpasst haben, und ich glaube, dass diese Talentpipelines notwendig sind, damit diese Erkenntnisse dann auch ins Management kommen.
Günther Mayr: Ja, es ist schon einiges verpasst worden – das haben ja auch Sie angesprochen, Herr Pig –, und dann besteht natürlich genau das: dass man vielleicht kommerziell unter Druck ist und dann mit Archiven, die man verkauft, oder mit anderen Dingen einfach versucht, sozusagen zu retten, was angeblich noch zu retten ist. Aber hat man im Wesentlichen einiges verschlafen und versucht jetzt, das so zu korrigieren, also das, was Sie das Abfließen dessen, was eigentlich das Kommerzielle ist, genannt haben, während man selbst mit sehr schwierigen Strukturen übrig bleibt?
Clemens Pig: Ja, es ist sicher so, dass mit Beginn dieser Coronapandemie als letztem Auslöser sich die digitalen Mediennutzungsmuster total manifestiert haben und mit dieser Inflation auf der Kostenseite die Medienunternehmen mit dem Rücken zur Wand stehen; das ist einfach eindeutig so.
Es ist wahnsinnig schwierig, generelle Antworten zu geben – die Mediengattungen sind doch sehr unterschiedlich, finde ich, da muss man auch aufpassen, wie man antwortet. Es ist nur jetzt wirklich ein Punkt erreicht, denke ich, an dem man genau hinschauen muss und es nicht eine Sonntagsrede sein darf, zu sagen: Journalismus ist wichtiger denn je! Das ist für mich eigentlich die Kernbotschaft: Journalismus ist wichtiger denn je.
Wir leben in einer Hochgeschwindigkeitsinformationsgesellschaft, mittlerweile in einigen Teilen -desinformationsgesellschaft. Meines Erachtens ist die Geschwindigkeit viel zu hoch. Diese hohe Geschwindigkeit erklärt auch, warum im aktuellen Reuters Digital News Report das Thema news fatigue, also dieser Nachrichtenerschöpfung, so überhandnimmt. Ich glaube, dass es gar nicht so richtig ist, von News-, sondern eher von Informationsfatigue – information fatigue – zu reden. Ich nehme mich da selber ja gar nicht aus, im Wesentlichen. Wir werden aber tagtäglich nicht nur mit Hunderten, sondern Tausenden von Informationen und Informationssplittern bombardiert. Es kippt ja auch etwas in der Nutzer- und Nutzerinnenschaft.
Darin sehe ich immer die Chancenseite, und die muss man jetzt erkennen. Und ich glaube halt wirklich zutiefst, es wird in einer Welt, die von gobalen Playern bestimmt ist, nicht mehr gelingen, dass jedes Unternehmen, jedes Medienunternehmen, das für sich selber tut. Das ist, denke ich, eine Illusion. Und wir sind viele.
Wir sind viele! Europa hat nach wie vor eine pluralistische Medienlandschaft, und da geht es ja jetzt viel weniger um eine Ausrichtung, ob das jetzt ein eher liberales oder konservatives Blatt ist – das ist gar nicht mehr der entscheidende Punkt –, sondern in einem bestimmten Spektrum des Qualitätsjournalismus müssen wir uns zusammenschließen, müssen wir uns vernetzen. Manchmal ist es offen gesagt schon auch ein wenig frustrierend, wenn das nicht besser gelingt, aber auch die heutige Veranstaltung ist ein wesentlicher Baustein dafür, diese Botschaft zu platzieren.
Günther Mayr: Mister Beckett, Sie haben das ja international studiert. Sehen Sie Unterschiede im Umgang damit? Jetzt reden wir sehr stark von amerikanischen Konzernen, die im Internet dominieren. Sie haben auch Beispiele aus Südamerika, aus Argentinien. Kann man da vielleicht Unterschiede erkennen, wie auch die Politik in verschiedenen Ländern unterschiedlich damit umgeht? Diktaturen: Da ist klar, das ist immer ein ganz ein eigenes Kapitel; aber sehen Sie da Unterschiede im journalistischen Zugang?
Charlie Beckett: In gewisser Weise nein, eigentlich erstaunlich, dass die Grundsätze des Journalismus eigentlich immer die gleichen sind: Neugierde, überprüfen, versuchen, die Information den Leuten zur Verfügung zu stellen – das machen Journalisten in der ganzen Welt.
In unserem Bericht sieht man, dass es einen signifikanten Unterschied zwischen dem globalen Norden und dem globalen Süden gibt. Das hat aber sehr viel mit den restlichen Dingen des Lebens zu tun, den Ressourcen, der Entwicklung der Technologielandschaften. Der grundlegende Ansatz aber, KI in bestmöglicher Weise zu verwenden und die Risiken zu minimieren, sind ähnlich. Das ist ja eine universelle Technologie, und eines der faszinierenden Dinge ist, wie sie jetzt einfach schon überall ist. In gewisser Weise hat das ein gewisses Potenzial, Brücken zu bauen. Zum Beispiel braucht eine ganz kleine Redaktion vielleicht nur ein Tool: Übersetzung – das kann unglaublich transformativ sein. Der Großteil der Welt spricht unglaublich viele Sprachen, auch mehrere innerhalb eines Landes. In Südafrika gibt es 14 Amtssprachen. Das heißt, wenn man da automatisch übersetzen kann, kann man plötzlich eine sehr viel breitere Nachrichtenlage haben und die Barrieren zwischen den großen nordamerikanischen Unternehmen abbauen.
Und diese Ungleichheiten gibt es auch innerhalb eines Ortes, zum Beispiel einer lokalen Nachrichtenredaktion, einer nationalen Redaktion oder eines Nachrichtenservices. Lokalnachrichten haben es schwer, aber es gibt potenzielle Anwendungen für generative KI, die diese lokale Perspektive wirklich sehr unterstützen können, und das kann auch sehr transformativ wirken.
Ich liebe meine Arbeit zum Teil deswegen, weil ich das Glück habe, mit Hunderten unterschiedlichen Newskulturen zu arbeiten. Viele sind sehr negativ und haben mit der Technologie gar nichts zu tun, autoritäre Regierungen zum Beispiel, aber andererseits gibt es auch eine unglaubliche Vielfalt an Innovation. Wie ich eingangs sagte: Eine interessante Sache bei dieser generativen KI ist, dass jeder einen Prompt schreiben kann – ganz egal welche Sprache Sie sprechen oder wo in der Welt Sie sind: Sie haben den Zugang, damit zu beginnen.
Günther Mayr: Sie haben so quasi gesagt, in jedem bayerischen Dorf spricht man anders.
Ich habe das mit diesem Radar, das man da einstellen kann, sehr interessant gefunden, aber birgt das nicht auch immer wieder ein bisschen die Gefahr, dass wir, wenn wir in eine U-Bahn, in eine Straßenbahn oder in einen Bus blicken, sehen, dass alle nur noch am Handy sitzen und versuchen, irgendetwas zu finden? Das ist auch ein bisschen das, was Herr Pig angesprochen hat: dieser Overflow; dieses: Ich halte es schon nicht mehr aus. – Das bedeutet, die Kapazität ist begrenzt. Auch mit Lokalnachrichten trägt man dazu bei, dass man das Hirn schon sehr voll hat. Ist das nicht auch ein bisschen ein Risiko des Zuviel?
Uli Köppen: Im Prinzip kann man das, was wir da anbieten, als großes Filtersystem verstehen. Es ist eigentlich genau ein Werkzeug, um mit dieser Überflutung an Nachrichten umzugehen. Ich kann Nachrichten auf mich zuschneiden, und das hat den Vorteil, dass ich als Endverbraucherin es tun kann und nicht die Nachrichten es für mich tun. Das heißt, man ermächtigt die User auch, das für sich zu tun. Ich glaube, das ist ein wichtiger Punkt.
Ich glaube, man darf auch nicht überschätzen, dass die Leute so wahnsinnig viel Lust haben, sich das selber einzustellen. Wir sind immer noch eine Lean-back-Konsumgesellschaft und haben keine Lust, so viel zu interagieren, aber schon allein die Möglichkeit, dass man es tun kann, ist Teil von unserem demokratischen Auftrag. Das ist sozusagen das Öffentlich-Rechtliche, was wir damit anbieten.
Gleichzeitig ist es so: Genau dieser Filtermechanismus ist ein Teil, damit umzugehen. Man wird nicht nur bestürmt, sondern man kann sagen, ich interessiere mich aber jetzt nur für diesen Ort oder für diese zwei Orte.
Günther Mayr: Nun sind Sie im TV und so weiter sehr regional aufgestellt, so wie auch der ORF, und da hat man schon den Eindruck, dass das mit den Beginnzeiten schon auch ein bisschen ein Ritual ist, das es auch noch immer gibt, zum Beispiel bei der „Zeit im Bild“.
Uli Köppen: Das existiert nebeneinander, auf alle Fälle, ja.
Günther Mayr: Und das funktioniert auch parallel, glauben Sie?
Uli Köppen: Ich glaube, das sind immer noch verschiedene Alters- und Bevölkerungsschichten, die wir ansprechen. Das verschiebt sich immer mehr, aber das Fernsehen ist nach wie vor ein wichtiger Bestandteil von dem, was wir machen. Das ist also nicht so, dass wir morgen unsere Fernsehsender abschalten, ganz im Gegenteil, es ist nur so, dass wir uns überlegen: Wie können wir diese verschiedenen Leute, die diese zwei Medien wollen, besser bedienen? Im Fernsehen hat man da einfach nur die Möglichkeit des Programmschemas und im Internet hat man noch viele Möglichkeiten mehr, die wir gerade auszuschöpfen anfangen.
Günther Mayr: Ist das in der Nachrichtenagentur auch so, dass man sagt: Wir müssen uns schon immer mehr spezialisieren!, oder haben Sie Erfahrungen, ob sich im Nutzungsverhalten der Medien, die Ihre Meldungen nutzen, Trends ergeben, auch aufgrund der Fülle von AI und anderen?
Clemens Pig: Wir wissen natürlich unabhängig von AI sehr genau, wie die Inhalte von Nachrichtenagenturen verwendet werden, zum Beispiel online, wo sie ja am allermeisten verwendet werden, quasi minutennahe. – Dieses Wissen ist da.
Im Agenturjournalismus ist es, denke ich, einerseits schön, zu sehen, dass die Inhalte, die man produziert, in Sekundenschnelle über ganz Österreich auf den Onlineportalen zu finden sind, andererseits ist das natürlich schon auch nicht ganz unkritisch zu sehen, auch im Sinne der Medienmarken selber. Was wir derzeit vor dem Hintergrund von AI ganz eindeutig sehen, ist Folgendes: Wir versuchen, jeden Tag einen völlig unaufgeregten, sachlichen redaktionellen Grundversorgungsdienst, der so neutral wie möglich ist, zu liefern, aber auch wenn im Buchtitel „Wa(h)re“ steht, ist das mit der Wahrheit so: Wir sind nicht das Wahrheitsministerium. Das zu erkennen ist, glaube ich, ein ganz entscheidender Punkt für Medien.
Was wir sehen, ist Folgendes – und wir arbeiten ja auch bereits daran –: dass es zukünftig auf Basis dieses Ausgangsmaterials der Agenturen medienindividuelle Agenturfeeds geben wird, die auf diese sogenannten Userneeds von unterschiedlichen Medienmarken wesentlich besser einzahlen. Die Idee dahinter ist, dass wir einen insgesamt erstellten Dienst haben, der dann nicht nur in unterschiedlichen Formaten und Kanälen ausgespielt wird, sondern auch schon entlang der Userneeds von unterschiedlichen Medienmarken konfiguriert – von der Textlänge bis hin zu Sprache und Semantik und dem jeweiligen Bildmaterial – ausgeliefert wird. Das passiert ganz bestimmt, und das ist ein wesentlicher Stream im Agenturjournalismus.
Der andere ist: Abseits von Datenjournalismus und all den Dingen ist ein Megathema, das uns alle zukünftig wesentlich mehr beschäftigen wird, die Umwelt- und Klimaberichterstattung.
Insgesamt bin ich der Meinung, dass wir zwar zu Recht über Geschäftsmodelle, Formate, Kanäle, Zielgruppen reden, aber wir reden – und ich bin kein Journalist – meines Erachtens eine Spur zu wenig über das eigentliche Produkt, nämlich über Journalismus und die Frage nach dem Journalismus in einer Welt, wie wir sie vorfinden – ausgehend vom Strategieansatz, dass der Journalismus sozusagen ein Kind der Aufklärung ist: Wie ist das heutzutage zu interpretieren, auch mit Blick auf jüngere Menschen?
Wir dürfen, glaube ich, nicht in die rein technologieorientierte Sichtweise von Journalismus abdriften, sondern sollten ganz dringend hinschauen: Wo verlieren wir denn die Menschen quasi wirklich? Jüngere Menschen sind für mich ein Paradebeispiel, um das zu verstehen. Die haben das Internet zu ihrer Jugendkultur gemacht; das hätten wir auch getan, und das ist völlig nachvollziehbar. Uns fehlen eher die Antworten darauf, nicht nur auf der Ebene der Kanäle und Formate, sondern eben: Jede andere Branche würde zunächst das eigene Produkt genauer anschauen.
Günther Mayr: Das heißt natürlich auch: Was ist Qualität von Journalismus?
Herr Beckett, Sie kommen aus dem, man kann sagen, Mutterland der Yellow Press. – Sorry for that. (Heiterkeit.)
Wie tun sich denn die mit der AI? Ist das für die ein Vorteil, weil die ja von jeher, sagen wir einmal, die nicht ganz langen und großen Texte produziert haben, oder ist das für die auch schwieriger, weil es komplexer geworden ist?
Charlie Beckett: Also ernsthaft, die Regenbogenpresse oder jede Art von billiger Presse, jede Art von Presse war in der Vergangenheit immer wichtig, denn viele Menschen – sehr vernünftige Menschen – interessieren sich nicht für Politik. 90 Prozent der Menschen interessieren sich nicht für die Politik.
Günther Mayr: 90 Prozent, sind Sie sicher?
Charlie Beckett: Ja, wenn Sie die Leute fragen. Wenn Sie die suchen, die jeden Tag über Politik lesen, die wissen, wer ihre politischen Vertreter sind, und die wissen, wie die Wahlen ausgehen und so weiter: Das ist eine wirklich kleine Minderheit. Die meisten davon leben in London, im Zentrum. Deswegen waren eben diese großformatigeren Zeitungen eine Möglichkeit, ein bisschen Nachrichten zu den Menschen zu bringen, die weniger an der ernsthaften Politik interessiert waren.
Eines der interessanten Dinge, die sich da ereignet haben, wenn wir überlegen, wie wir jetzt ein größeres, vielleicht jüngeres Publikum bekommen können, vielleicht diejenigen, die nicht so an den ernsthaften, seriösen News interessiert sind: Das Internet, Social Media bieten potenziell einen fantastischen Weg, ein Publikum zu binden.
Manche binden sich mehr oder weniger zufällig, weil sie auf Social Media irgendetwas finden, das sie interessiert, und dann bleiben sie dort. Es gibt also eine andere Art von Journalismus der Regenbogenpresse. Vieles von dem, was Sie auf sozialen Medien sehen, das wütend, aufgeregt, aggressiv ist, das ist sozusagen der neue Regenbogenjournalismus. Ich denke, wir müssen einen Weg finden, das nicht einfach zu ignorieren, sondern sehr viel ernsthafter über die Gruppen nachzudenken, die weniger offensichtliche Konsumenten des Qualitätsjournalismus sind, den wir, die Menschen hier, produzieren.
Ja, KI ist eine Möglichkeit das zu tun: Content zu erzeugen, der die richtige Größe, die richtige Länge, das richtige Format hat. Es geht aber auch darum – und das passiert ja schon seit einiger Zeit –, dass wir anders darüber nachdenken müssen, wie Menschen ihre Welt sehen und verstehen. Das hat sich sehr verändert, besonders unter den Jungen. Die haben unterschiedliche Plattformen.
Es gibt bei uns im Moment einen Journalisten, der sich mit der Idee des Metaverse beschäftigt. Junge Leute sind auf Plattformen wie Roblox. Hat jemand schon von Roblox gehört? Nein, natürlich nicht. – Doch einer, eine Person. Das ist deswegen so, weil Menschen wie Sie das nicht verwenden. Das verwenden Teenager, die gamen, und die unterhalten sich dort über ihr Leben. Kann Journalismus diese Plattformen erreichen? Kann er diese Sprache sprechen? Das ist eine menschliche Herausforderung: die eigenen Werte – die Genauigkeit, das Verifizieren – zu behalten und trotzdem zu lernen, mit den Menschen dort zu kommunizieren, wo sie sind, ob das auf Roblox oder irgendwo anders ist. Und ich denke, das ist eine wirklich große und wichtige Herausforderung.
Tatsache ist: Es gibt viele Menschen, die darin gut sind. Man nennt sie Influencer. Das sind auch diejenigen, die Fakenews erzeugen. Sie sind brillant darin, so zu kommunizieren wie die Regenbogenpresse: Sie sprechen deine Sprache, sie wissen, woran du interessiert bist, sie versuchen nicht, irgendwie herablassend mit dir zu reden, dir etwas beizubringen, dich ständig zu korrigieren. Das ist nicht nur eine Technologiesache, das ist ein menschlicher Faktor. Das müssen nicht nur Journalisten, sondern auch Politiker und alle, die im öffentlichen Leben stehen, lernen: neue Sprachen.
Günther Mayr: Frau Köppen, wie sieht denn die Schnittmenge aus, zwischen dem, was sich da jetzt auf Social Media unter jungen Menschen tut, und dem, was Sie als Ihre audience, wenn Sie so wollen, sehen? Ist das etwas, was sich gegenseitig stark beeinflusst, oder müssen eher Sie den Trends folgen, die das Netz über Sie hereinbrechen lässt?
Uli Köppen: Investigative Journalist:innen gehen ja dahin, wo sie hingehen sollen. Das heißt, wenn wir einen neuen Kanal finden, wo interessante, schwierige Dinge passieren, dann gehen wir da hin.
Es ist natürlich nicht so, dass wir die Trends setzen, das ist auch gar nicht unsere Aufgabe. Es ist eher so, dass wir versuchen, in diese zwei Richtungen zu arbeiten: diese Wächterfunktion aufrechtzuerhalten und wirklich investigativ zu recherchieren, auch auf neuen Plattformen. Da kann man natürlich das Ohr hinhalten, um herauszufinden, was junge Leute denken und was diese Plattformen auch mit diesem Content machen.
Das ist, glaube ich, ein wichtiger Punkt, den wir als Gesellschaft viel zu wenig kontrollieren können: Was passiert denn auf Tiktok mit unseren 14-Jährigen? – Die bekommen plötzlich KI-Avatare und können da mit einem besten KI-Freund über ihre Liebesprobleme sprechen. Was heißt das denn eigentlich von einer Erziehungsperspektive aus für die Eltern? Was heißt das für eine Schule?
Medienkompetenz ist leider immer noch etwas, was in Schulen kaum unterrichtet wird, wobei die Lehrer auch viel zu wenig Kompetenz mitbringen, um das zu tun; und da müssten Medien vielleicht noch mehr einspringen und noch mehr aufklären, noch mehr Berichterstattung darüber bieten, gerade auch Berichterstattung, die junge Leute erreicht.
Wir haben in der ARD mittlerweile ein Netzwerk aufgebaut, das Funk heißt. Es funktioniert dezentral, es ist bei YouTube, es ist bei den Kanälen, die die jungen Leute erreichen. Das müssen wir verstärkt tun, weil wir die Leute sonst gar nicht mehr erwischen.
Günther Mayr: Herr Pig, in Ihrem wunderbaren Buch geht es ja auch sehr viel um Medienkompetenz. Ist das etwas, das Sie auch als Defizit sehen? Ich würde meinen, in den Schulen haben wir wirklich ein Defizit in Bezug darauf, wie man mit Medien umgeht, wie man mit dem Internet umgeht, wie man mit klassischen Medien umgeht und was einem da alles blühen kann.
Clemens Pig: Ja, ich nehme das absolut so wahr. Wir reden seit vielen Jahren über Medialiteracy und haben ja noch gar nicht begonnen, diese in die Erziehung und in die Bildung zu bringen, und jetzt müssten wir eigentlich über AI-Literacy reden. Es liegt, glaube ich, ein großes Thema, bei dem es ja auch – ich verwende bewusst die Begriffe – einen Schulterschluss zwischen dem System Medien und dem System Politik geben sollte, darin, dass Menschen in der Lage sind, Quellen einzuordnen, dass sie unterscheiden können, was eine gute Quelle und was eine schlechte Quelle ist.
Ich bringe gerne das Beispiel – und das ist jetzt vielleicht aus parteipolitischen Gründen aktuell –: Hin und wieder zu McDonald’s zu gehen ist ja auch okay, wenn man weiß, was gute Küche ist. Es ist ja auch okay, dass man soziale Medien, die weder sozial noch Medien sind, konsumiert. Das ist überhaupt nicht der Punkt. Ich glaube aber, Medialiteracy würde in Zeiten wie diesen, in denen wir tatsächlich auch, man muss es leider so nennen, Informationskriege erleben, wahnsinnig helfen, unterscheiden zu lernen, Quellen einzuordnen, Quellen unterscheidbar zu halten. All diese Dinge haben viel, viel mit Bildung zu tun. Ich glaube, das ist aus Mediensicht dringend notwendig und steht an, und ich weiß aber auch nicht mehr, wie man das jetzt noch integrieren kann.
Günther Mayr: Herr Beckett, wenn wir uns jetzt Systeme wie in Russland oder auch schon ein bisschen in Ungarn anschauen: Ist das überhaupt noch reparabel, wenn eine Gesellschaft einmal so dominiert wird von Staatsmedien, die schlicht und einfach ihre Propaganda verteilen? Kann man da überhaupt das Rad zurückdrehen, oder ist das fast schon hoffnungslos?
Charlie Beckett: Das ist eine sehr gute Frage. Ich versuche an Beispiele zu denken, wo das tatsächlich gelang. Der Grund, warum es passiert, hat natürlich mit der Politik eines Landes zu tun und mit den Grad an Zustimmung, den die Regierung findet.
Wir, die hier sitzen, glauben, dass Journalisten wunderbar sind und dass die Newsmedien toll sind, aber wir müssen auch sehen, dass es sehr viel Skepsis gibt. Die gab es, was Journalismus betrifft, immer schon – aus verschiedensten Gründen: teilweise, weil wir den Menschen oft Dinge erzählen, die deprimierend sind, die sie gar nicht hören wollen, die harten Fakten, und auch, weil wir Meinungen übermitteln, die das Publikum nicht unbedingt teilt. Wir halten das für eine sehr gesunde Vorgehensweise, aber viele Menschen sehen das nicht so; sie sind verärgert darüber, vor allem wenn sie finanzielle Instabilität, eine Pandemie und so weiter erleben. Dann ist diese Skepsis gar nicht so überraschend.
Ich möchte die Leute hier nicht einschließen, aber früher war Journalismus auch parteiisch – partisan. Er war auch ein Träger von verzerrten, einseitigen, unvollständigen Informationen, und das haben wir in der Vergangenheit vielleicht zu sehr toleriert. Es ist also gar nicht so überraschend, dass wir das Vertrauen der Öffentlichkeit verloren haben, und in gewisser Hinsicht war es uns egal. Wir haben gesagt: Wir sind unabhängige Journalisten, es ist uns egal, ob ihr uns traut, weil wir auch niemanden trauen. Wir sind Journalisten, wir trauen niemand, also warum solltet ihr es tun, solange ihr unsere Zeitungen kauft?
Jetzt sind wir in einer ganz anderen Situation, in der wir die Zustimmung der Öffentlichkeit brauchen. Das ist das Gegenteil einer Lösung wie in Ungarn, die am Ende eine politische Lösung ist. Es geht aber auch darum, sicherzustellen, dass Journalisten die Bedürfnisse der User deutlich besser verstehen. Das klingt ein bisschen trocken, ist aber tatsächlich sehr wichtig. Warum brauchen die Menschen Journalisten? – Vielleicht weil sie die Wettervorschau möchten oder weil sie wissen wollen, in welche Schule sie ihr Kind schicken sollen, oder – das könnte auch sein – um sich zu entscheiden, wem Sie bei einer Wahl ihre Stimme geben.
Wenn wir diese Bedürfnisse nicht erfüllen, dann werden sie uns nicht unterstützen, und wir wollen ihre Unterstützung nicht nur wegen des Geldes. Meiner Ansicht nach geht es bei Medialiteracy zum Teil auch darum: Wir brauchen Journalisten, die besser erklären, was sie tun. Vergessen Sie Medialiteracy in der Schule! Journalisten und auch Politiker müssen besser darin werden, darüber zu reden, was sie tun, und zu erklären, wie sie es tun.
Günther Mayr: Ich denke, gerade wenn wir bei solchen Systemen wie Russland bleiben, sehen wir, dass ja die AI auch wirklich eine große Chance ist, dass man sagen kann: Bitte dieses Bild ist eindeutig gefälscht, das haben wir aufgrund von Software, die das kann, die das lösen kann, sehr schnell herausgefunden! Also das bietet schon auch Chancen, das ist jetzt klar. Wo aber bringt man das dann unter? Da sind wir aber beim System: parteiisch – partisan, wie es angesprochen wurde. Das ist doch auch ein Punkt.
Und Sie haben das Archiv angesprochen. Robert Hochner, ein berühmter Moderator, hat einmal gesagt: „Die Rache der Journalisten [...] ist das Archiv.“ Das kann man in diesem Zusammenhang schon auch so sehen, dass man sagt: Moment, das stimmt so nicht, das können wir euch sehr schnell widerlegen! – Ist das nicht auch die Chance für solche Systeme?
Clemens Pig: Es ist die Chance – und mir gefällt dieser Befund von Charlie sehr gut –, denn ich glaube, in dieser Medienkrise mit den Vorwürfen Vertrauensverlust, Lügenpresse liegt ein wesentlicher Punkt darin, wesentlich transparenter zu machen, wie Journalismus funktioniert, wie Nachrichten entstehen. Da liegt nach wie vor zu viel Einseitigkeit drinnen.
Zweiter Punkt: Fehler passieren, auch Journalistinnen und Journalisten, und es gilt, diese Fehler auch transparent zu machen.
Der dritte Punkt, der, glaube ich, auch im Gefolge der Coronapandemie sehr wichtig ist, ist: sich ändernde Faktenlagen auch dementsprechend zu kommunizieren, auch journalistisch aufzubereiten. Das war ganz bestimmt eine Ausnahmesituation beim Thema Corona und Wissenschaft und sich verändernden Faktenlagen, und ich glaube, es ist ganz, ganz wichtig, dass Journalismus diese verändernden Faktenlagen – warum das so ist – transparent erklärt.
Es ist ganz bestimmt so, dass Menschen auch nicht mehr bevormundet werden wollen. Das heißt, sie haben auch eine Erwartungshaltung an den Journalismus. Journalismus hat nicht mehr nur diese unidirektionale Deutungshoheit über die Welt. Journalismus ist nach wie vor wichtig in dieser Einordnung, aber verbunden mit den erwähnten Dingen – Transparenz, Fehlerkultur – wesentlich besser zu verstehen: Was sind eigentlich die Lebensrealitäten der Menschen? Mir ist das immer sehr wichtig, auch mit Blick auf die jüngeren Menschen. Die sind genauso politisch interessiert, wie wir es waren oder sind, finde ich, absolut, aber sie haben unterschiedliche Themen. Da geht es um Umwelt, um Klima, um Demokratie, um Chancengleichheit, um Chancengerechtigkeit. Das meine ich mit: die Lebensrealitäten auch wahrzunehmen, weil Journalismus nicht mehr dieses einseitige Ding ist, das es immer war. Und da liegen ja viele Chancen drinnen, finde ich, die zu erkennen und vor allem auch einzulösen.
Günther Mayr: Verstehen wir uns noch mit dem Publikum, Frau Köppen, oder sind wir manchmal auch ziemlich daneben?
Uli Köppen: Gerade was die Konsumgewohnheiten der Jüngeren angeht, verstehen wir uns eigentlich schon lange nicht mehr, glaube ich. Ich habe vor Kurzem eine Diskussion beobachtet, bei der eine ältere Hörerin einem Puls-Mitarbeiter – das ist unser junges Programm – gesagt hat, er wolle doch bitte einmal mehr Poetry Slams auf seinem Radiosender, der vor allem Musik macht, versenden. Dabei ist herausgekommen, dass sie immer noch denkt, dass die Leute das Radio zu einer bestimmten Uhrzeit einschalten. Wenn ich meine eigenen Kinder anschaue, wenn ich die Jüngsten anschaue, die wir auch in Usertests sehen: Da gibt es lineare Programme nicht mehr. Es gibt auch nicht mehr die Idee, dass man sich eine Zeitung abonniert.
Ich glaube, alles, was Sie gesagt haben, Herr Pig, ist absolut richtig. Es ist unsere Aufgabe, unsere Arbeit zu erklären, aber es ist tatsächlich auch die Aufgabe von Schulen, von Kindergärten, von Erziehungseinrichtungen, Medien zu unterrichten, denn das Wissen, dass es ein Tageszeitungsabo gibt, gibt es in der Grundschule häufig nicht. Diese Tageszeitungen liegen auch nicht mehr auf dem Tisch der Eltern, sondern da gibt es maximal eine Mediathek, und die meisten wissen noch nicht einmal, dass dahinter ARD, ZDF oder ORF stehen.
Es ist sehr wichtig, diese Idee, dass es unabhängige Medien als Säule der Demokratie gibt, zu vermitteln. Man muss sich dafür aber auch auf Augenhöhe begeben und zuschauen, wie die Jüngeren Medien konsumieren. Sie machen das einfach nicht mehr auf lineare Art und Weise. Dieses Verständnis dringt sehr, sehr langsam durch. Obwohl wir ganz genau wissen, dass digital wichtig ist, ist es so, dass wir häufig unsere Entscheidungen in Medienhäusern und zu Formaten danach ausrichten, dass die Leute um 20 Uhr oder um 20.15 Uhr das Fernsehen oder das Radio einschalten – was immer noch passiert, das darf man nicht vernachlässigen, aber all diejenigen, die nachkommen, machen das nicht mehr, und das übersehen wir, glaube ich.
Günther Mayr: Damit wir auch hier unser Publikum nicht überfordern, würde ich gerne schön langsam zur Schlussrunde kommen.
Wenn wir jetzt, ich sage einmal, 20 Jahre nach vorne blicken, Herr Pig: Gibt es dann noch gedruckte Zeitungen? Wie viele Journalistinnen und Journalisten gibt es dann noch im Verhältnis zu jetzt? Ich weiß, das ist fiktiv.
Clemens Pig: Ja, es ist fiktiv. Ich bin tatsächlich wirklich davon überzeugt, dass es noch gedruckte Zeitungen geben wird. In welchem Umfang, das wird man sehen, beziehungsweise wird es auch eine völlige Verschiebung bei den Geschwindigkeiten, wann wir welche Art von Informationen und Nachrichten konsumieren werden, geben. Ich denke, alle analogen Formate – egal ob Print oder auch im elektronischen Bereich – leben von der demografischen Linie. Das ist so, das muss man einfach festhalten. Sie lösen sich auch zu Recht von den bestehenden analogen Plattformen. Es wird voll digitalisiert sein, es wird Journalismus geben, es wird Journalistinnen und Journalisten geben, das ist ganz bestimmt so. Ich glaube, oft gehen diese Zukunftsvisionen dann doch anders aus, als man sie zum Zeitpunkt der Vision oder eben dann, wenn man in die Zukunft schaut, hat, weil gerade Veranstaltungen wie diese ein weiterer Baustein sind, dass wir uns entwickeln und bewegen. Deshalb glaube ich: Es wird uns geben.
Ich glaube ganz bestimmt, was ich eingangs auch sagte: Journalismus ist wichtiger denn je. Es ist im Moment eine wahnsinnig schwierige Phase. Es braucht Kooperation, es braucht Regulatorik auf EU-Ebene, auf nationaler Ebene, es braucht Verständnis betreffend die Technologien. Wenn wir das hinbekommen, wird es das alles geben, aber nicht mehr in der Form – das muss man schon sagen –, wie wir es heute konsumieren.
Günther Mayr: Mr. Beckett.
Charlie Beckett: Das ist natürlich eine unmögliche Frage, die kann ich gar nicht beantworten.
Vor 20 Jahren, wie sah es denn da aus? – Da gab es kein Facebook, kein Twitter, keine sozialen Medien, man sprach über die KI, das schon, aber das war eigentlich kein wirklich wichtiger Aspekt. Die Veränderungen gehen sehr schnell voran. Es gibt ja dieses Klischee, dass wir gerne die Auswirkungen neuer Technologien übertreiben. Wir glauben, dass sich alles bis zur nächsten Woche verändern wird, ganz, ganz kurzfristig, aber dann unterschätzen wir andererseits auch wieder die langfristigen Entwicklungen. Deshalb habe ich auf die 20 Jahre verwiesen. Da gibt es Dinge, die wir einfach nicht erwartet haben oder nicht erwarten, und die wird es dann aber auch in Zukunft geben.
Die Idee des Journalismus ist eigentlich eine ewige Idee. Das heißt, die Menschen werden immer gerne herausfinden wollen, wie es denn um die Welt bestellt ist, und es gibt wieder andere Menschen, die das sehr gut vermitteln können. Wenn man also eine fachliche Antwort möchte, würde ich sagen: strukturierte Nachrichten, das wäre der Fachausdruck. Das heißt, wir werden uns wegbewegen von der Idee, die vor Jahrzehnten sozusagen relevant war. Früher wurde ein Film fürs Fernsehen gedreht oder ein Artikel geschrieben – und das wird anders sein.
Wir denken über Daten nach, wir denken über das Erschaffen von Content, der eben entsprechend formatiert ist, nach, und dann sollte man auch darüber nachdenken – hoffentlich finde ich das, was ich suche –, was dann nach dem Smartphone passiert. Ich glaube, da wird es sehr, sehr schnelle Entwicklungen geben. Die Idee, dass wir sozusagen diesen Schirm, dieses Gadget mit uns herumtragen, wird sich verändern, die Information wird uns umgeben. Wir werden eingebettet in einem Umfeld Nachrichten konsumieren. Ich weiß nicht, wie es passieren wird. Werden es diese tollen Brillen mit Informationen, die eingeblendet sind, sein? Ich weiß es nicht.
Jedenfalls wird es in Zukunft hoffentlich auch menschliche Kreativität geben. Da spreche ich auch über die emotionalen Werte, die durch den Journalismus verkörpert werden, die werden doch immer wichtiger werden. Und man wird kreative Möglichkeiten finden – manchmal fußend auf Technologien natürlich, manchmal aber auch ohne –, also neue Möglichkeiten, um Geschichten zu erzählen, damit sich die Menschen informieren können und damit sie auch manchmal eintauchen können. Manchmal braucht man ja auch Empathie und nicht nur Informationen. Also diese Verbindung herzustellen wäre sehr wichtig.
Hoffentlich werde ich das alles noch erleben in 20 Jahren, man wird sehen. (Heiterkeit.)
Günther Mayr: Frau Köppen.
Uli Köppen: Ich glaube, ein Sprachmodell kann viel besser vorhersagen als ich, ich bin ganz schlecht in dieser Glaskugelschau. Ich glaube auch nicht daran, denn wenn man sieht, was seit November bis jetzt passiert ist, dann hätte das schon vor einem Jahr keiner vorhergesagt. Ich glaube – du hast diesen Unterschied zwischen long-term und short-term decisions gemacht –, diese long-term decisions sind jetzt wichtig. Also dass wir jetzt in Medienhäusern diese Langzeitentscheidungen treffen, das ist absolut wichtig für unsere Infrastruktur, und dann wird sich entscheiden, wer in Zukunft in dieser Datenwelt Vorteile haben kann.Überhaupt eine KI einzusetzen bedeutet, dass man seine Daten erst einmal im Griff haben muss. Man muss die verschiedenen Systeme miteinander verbinden, man muss die Daten in Fluss bringen. Die Medienhäuser, die das jetzt schaffen und die ihr Archiv gut verwenden können, werden in Zukunft einen unschätzbaren Vorteil haben. Ich glaube, da teilt sich die Medienwelt in verschiedene Lager: die, die es leichter haben werden, und die, die es schwerer haben werden. Bei der Frage, wie wir Medien in Zukunft konsumieren, halte ich mich dann an Charlie.
Günther Mayr: Also Sie sehen, es ist ein sehr komplexes Feld, in dem wir uns momentan einfach schwer tun, in die Zukunft zu schauen. Sie sehen: Journalisten sind immer ein bisschen realistisch und sagen: Schauen wir einmal! Es wird uns auch nichts anderes übrig bleiben.
Ich bedanke mich für eine sehr spannende Debatte: beim Podium – vielen Dank für Ihre Inputs –, bei Ihnen fürs Zuhören und bei Ihnen, Herr Präsident, für die Initiative.
Ich denke, es ist wirklich ein wichtiger Punkt, der uns noch viel Nachdenken kosten wird. Es wird eine Welt sein, die wir uns momentan vielleicht so noch nicht vorstellen können, aber sie wird anders sein und es wird schon auch die Verantwortung der Gesellschaft und der Politik sein, wie wir das regulieren, wie wir mit dem Thema umgehen, dass es große Konzerne sind, wie wir mit dem Thema umgehen, dass Europa nicht den Anschluss verliert, zumal man manchmal den Eindruck haben könnte, wir sind zu langsam im Vergleich zu amerikanischen Konzernen, die da sehr schnell vorangehen. Ich kann Ihnen von meiner Seite versichern: Wir bemühen uns und versuchen alles, um Ihnen – möglichst objektiv – die besten Fakten zu liefern.
Corona – nur noch so als kleines Schlussbonmot –: Es sind zehn bis zwölf Webseiten, auf die alles von diesen Menschen, die vehement gegen alle Maßnahmen waren, referenziert, mehr sind es nicht, und das sagt, glaube ich, schon viel darüber aus, dass Journalismus und Einordnung durchaus Berechtigung haben und dass es wichtig ist, dass es möglichst viele unabhängige Medien – ob privat, ob öffentlich-rechtlich – gibt, bei denen Menschen arbeiten, die es mit Information und mit Journalismus ernst meinen. – Ich danke Ihnen. (Beifall.)
Schluss der Veranstaltung: 11.32 Uhr