Parlamentarisches Forum

KI-Anwendungen in Österreichs Wirtschaft

Transkript

Verfasst von der Abteilung 1.4/2.4 – Stenographische Protokolle

 

 

 

Dienstag, 16. April 2024

9.09 Uhr – 11.21 Uhr

 

 

Elise Richter Lokal 2

Programm

Eröffnungsworte

Wolfgang Sobotka – Präsident des Nationalrates

Keynote: „KI ist nicht ‚Jugend Forscht‘: Wie KI Unternehmen und Wirtschaft unterstützen kann“

Tristan Post – KI Stratege, Gründer AI Strategy Institute, Dozent für „AI for Innovation and Entrepreneurship“ an der Technischen Universität München

Keynote: „Den digitalen Wandel mit Responsible AI gestalten“

Ludmila Georgieva – Head of Government Affairs & Public Policy, Google Austria

Keynote: „KI-Masterplan – Wo stehen Österreichs Unternehmen?“

Isabell Claus – Geschäftsführerin von thinkers.ai

Keynote: „Medienwirtschaft und Demokratie im KI-Zeitalter: zwischen Chancen und Herausforderungen“

Jeannette Gorzala – KI-Expertin, Rechtsanwältin und Partnerin go_legal attorneys at law sowie Gründerin der Act.AI.Now-Initiative für KI-Literacy

Podiumsdiskussion der Keynotespeaker:innen

Moderation

Günther Mayr – Leiter der ORF-Wissenschaft


Beginn der Veranstaltung: 9.09 Uhr

Günther Mayr (Moderation): Einen schönen Vormittag, meine Damen und Herren! Meine Name ist Günther Mayr, ich darf Sie heute durch dieses Programm führen. Ein spannendes Thema: Wir hatten schon einige parlamentarische Foren hier zum Thema KI und darüber, wo KI Anwendung findet. Heute wird es um KI-Anwendungen in Österreichs Wirtschaft, in Österreichs Unternehmen gehen, mit allem, was damit verbunden ist – aber natürlich auch in einer internationalen Wirtschaft.

Wir haben hier sehr prominente und kompetente Keynotespeakerinnen und Keynotespeaker, die sehr beredt darüber Auskunft geben können, was in den Firmen passiert und wie damit umgegangen wird, dass wir vor einem System stehen, das wirklich Herausforderungen in alle Richtungen bringt.

An dieser Stelle würde ich Ihnen jetzt gerne Nationalratspräsidenten Wolfgang Sobotka vorstellen und ihn begrüßen, aber sein Auto verfügt über ein bisschen zu wenig KI: Er steckt im Stau. Er wird dann aber später zu uns stoßen.

An seiner Stelle darf ich Marie Mann begrüßen. Sie ist Pressereferentin und wird einige Worte zu dieser Veranstaltung finden. – Ich bitte darum. (Beifall.)

Marie-Jacqueline Mann (Büro des Präsidenten des Nationalrates, Pressereferentin): Auch von meiner Seite herzlich willkommen! Wie Herr Mayr schon gesagt hat, darf ich den Präsidenten für heute entschuldigen. Er steht leider im Stau, wird aber sicher gleich kommen und dann den Keynotes sehr interessiert zuhören. Ich kann Ihnen nämlich versichern, dass ihm das Thema sehr wichtig und ein Herzensanliegen ist, und vor allem nicht nur die Risiken, sondern auch die Chancen, die die KI birgt. Wir werden da heute viele aus dem Wirtschaftsbereich in Österreich hören.

Ich möchte Ihnen aber auch ein ganz besonderes Projekt präsentieren, das ihn beeindruckt hat, und zwar ist das ein Start-up aus Finnland. Es nennt sich Utopia Analytics. Was sie sich zur Aufgabe gemacht haben, ist, Demokratie in soziale Medien zu bringen, indem sie Echtzeitcontentmoderation in allen Sprachen ermöglichen. Das bringt uns eine Plattform im Einklang mit europäischen Werten, bringt der Demokratie etwas und ist Einsatz von KI in der Wirtschaft. Es passt also ganz gut zum heutigen Thema.

Um wieder ein bisschen allgemeiner zu werden: Chat-GPT ist in Österreich vor allem ein großes Thema geworden, als es die Zentralmatura geschafft hat. Spätestens dann war auch für Laien vorstellbar, was KI eigentlich alles kann. Das war auch in etwa der Zeitpunkt, zu dem der Präsident die KI zum Jahresschwerpunkt des Parlaments erklärt hat. Seither werden vonseiten des Hauses, aber auch gemeinsam mit der ÖAW diverse Berichte ausgearbeitet. Er führt zahlreiche Gespräche mit Amtskolleginnen und Amtskollegen, eben immer wenn es zu diesem Thema passt, und wir dürfen Veranstaltungen wie die heutige durchführen. Wir hatten die erste schon vor knapp einem Jahr zum Thema KI in Demokratie und Parlamentarismus – das war ein bisschen allgemeiner –, und die letzte war dann zum Beispiel sehr spezifisch zum Gesundheitswesen.

Heute geht es um KI und Wirtschaft. Da gibt es ja auch sehr viele Anwendungsbereiche: Denken wir an die Automatisierung oder an die Analyse größerer Datenmengen, was uns dann die Analyse von Mustern und Trends und im Endeffekt die Ausspielung maßgeschneiderter Informationen ermöglicht.

Damit darf ich dann aber eigentlich schon zu den Experten überleiten, die ja deutlich mehr oder detaillierter über diese Anwendungen und auch Strategien berichten können. – Danke schön. (Beifall.)

Günther Mayr: Vielen Dank, Marie Mann!

Ich darf hier natürlich auch noch alle anwesenden aktiven und ehemaligen Abgeordneten zum Nationalrat, Mitglieder des Bundesrates sowie die Abgeordneten der verschiedenen Landtage begrüßen. – Herzlich willkommen auch an Sie!

Ja, meine Damen und Herren, wie schon angesprochen: Dieses Thema KI ist in diesem Jahr schon fast ein Arbeitsfeld geworden. Wir hatten es in der Medizin, wo wir gesehen haben, dass zum Beispiel in der Diagnostik – ob es jetzt Röntgenbilder sind, ob es in der Dermatologie Befunde für die Haut sind – die künstliche Intelligenz – wenn man sie so nennen möchte; es ist ja immer wieder umstritten, ob das Intelligenz ist – und diese Systeme mittlerweile die besten Ärztinnen und Mediziner schlagen. Das bedeutet natürlich nicht, dass wir keine ausgebildeten Ärztinnen und Ärzte mehr brauchen, aber es ist in den verschiedensten Diagnoseverfahren ein sehr, sehr mächtiges Tool geworden.

Es ermöglicht natürlich auch die Prognose von verschiedenen Dingen. Das hatten wir auch in den verschiedenen anderen Bereichen, die wir hier bereits diskutiert haben. Wo wirkt es hinein? – In die Demokratie, zum Beispiel Suchmaschinen, darüber werden wir heute noch einiges hören. Eine Möglichkeit ist zum Beispiel, bei Wahlen – ja, das kann man schon sagen – manipulativ einzugreifen. Das sind alles gefährliche Felder, bei denen man weiß, da muss es Regelungen geben.

Es gibt vor allem die Probleme in der Juristerei – wenn Sie so möchten. Die Abstimmung der EU mit den Nationalstaaten: Wir haben im vorletzten Forum, glaube ich, diskutiert, dass verschiedene Firmen, wie eben zum Beispiel Google, in Irland angesiedelt sind, und dort gilt dann das irische Recht. Dort sitzen dann vielleicht zehn Anwälte aus Irland und verhandeln mit 300 von Google. Das ist nicht böse gemeint, sondern das ist ganz normal, aber wie stimmt man das ab? Es ist prinzipiell dann wieder Länderrecht. Das sind alles Probleme, die man theoretisch diskutieren kann.

Was aber sehr oft aus verschiedenen Bereichen und auch von Wissenschaftlern schon auch so ein bisschen als Vorwurf kommt, ist, dass man sagt, man kann sehr viel theoretisch herausfinden, theoretisch debattieren, aber: Wie wenden wir es dann an? Einer, der sich damit sehr beschäftigt, ist Tristan Post von der Technischen Universität München. Er ist dort Dozent für AI for Innovation and Entrepreneurship und leitet ein Institut.

Sein Vortrag hat den doch etwas prokanten Titel: „KI ist nicht ‚Jugend Forscht‘: Wie KI Unternehmen und Wirtschaft unterstützen kann“. – Das bedeutet: Was tun wir mit unserem theoretischen Wissen, und wie führt es vielleicht zu besseren Unternehmen, zu besseren Produkten, aber auch zu besser abgestimmten Wirtschaften über Nationalgrenzen hinweg? – Herr Tristan Post, ich darf Sie um Ihre Ausführungen bitten. (Beifall.)

Tristan Post (KI-Stratege, Gründer AI Strategy Institute, Dozent für „AI for Innovation and Entrepreneurship“ an der Technischen Universität München): Wunderbar, vielen Dank! Ich möchte gerne damit anfangen, eine kurze Geschichte zu erzählen, und zwar über meinen Kurs, den ich an der Technischen Universität München unterrichte.

Damals bin ich hingegangen, und eine Kritik, die ich gemerkt habe, ist: Wenn wir Leuten beibringen, wie man KI macht, dann bringen wir den Leuten bei, wie man KI baut. Das ist genauso, als würde ich den Leuten beibringen, wie ich einen Motor baue, und wenn es dann darum geht, die Leute in die Wirtschaft zu bringen, müssen sie auf einmal Mobilitätskonzepte entwickeln, müssen sie lernen, Autos zu fahren, oder müssen sie wissen, wie man Unternehmen in der Automobilbranche aufbaut oder leitet. (Der Redner unterstützt in der Folge seine Ausführungen mittels einer Powerpoint-Präsentation.)

Das war damals der Kurs, als ich ihn gestartet habe. Mittlerweile ist er einer der beliebtesten Kurse mit über 1 000 Studenten, die jedes Mal kommen. Das bringt mich nämlich auch zu dem Thema: Künstliche Intelligenz ist nicht „Jugend Forscht“.

Was meine ich damit? Vielleicht ganz kurz: Wie funktioniert eigentlich KI und welchen Mehrwert bringt künstliche Intelligenz für das Unternehmen? – Wir haben also einmal Daten, dann haben wir KI, und die KI macht dann Vorhersagen. Ich gebe Ihnen ein Beispiel: Stellen wir uns vor, wir wollen einen Algorithmus trainieren, der in der Lage ist, handgeschriebene Zahlen zu erkennen. Das wäre super nützlich, wenn die Post das zum Beispiel nutzen könnte, um Briefe zu sortieren.

Wie funktioniert das? – Ich gebe ganz viele Daten, spezifiziere, was ich heraus haben will, und dann lernt der Algorithmus für sich selbst und kann dann praktisch für eine Zahl, die er noch nicht gesehen hat, basierend auf den Regeln sagen: Na ja, was ist die Zahl? – In diesem Fall ist es eine Sieben oder eine Eins. Wir sehen, was sagt der Algorithmus? – Wir sehen, es ist eine Sieben.

Jetzt müssen wir uns fragen: Was ist der Mehrwert von einem Algorithmus, der dir sagen kann, was die handgeschriebene Zahl ist? – Gar nichts. Wieso nicht? – Der hat keinen Mehrwert, wenn wir es nicht schaffen, das mit Aktionen zum Beispiel in Unternehmen zu verknüpfen.

So könnte so etwas ausschauen: Wenn zum Beispiel die Post so etwas nutzt, dann haben wir – wir sehen es jetzt – eigentlich eine riesengroße Maschine, in der eine kleine Kamera drinnen ist und lesen, erkennen kann, was die Postleitzahl ist, und das dann dementsprechend einsortiert. Hier sieht man das: Man sieht, wie groß diese ganze Maschine ist und wie klein dann eigentlich diese Kamera und dieser KI-Teil sind. Erst wenn wir es schaffen, diese Vorhersagen in Aktionen umzumünzen, wie das Sortieren von E-Mails, kriegen wir wirklich einen Mehrwert.

Das ist die Herausforderung, die wir gerade in der Wirtschaft sehen: dieses Paradox, wenn es darum geht, KI anzuwenden. Auf der einen Seite haben wir relativ große Erwartungen an künstliche Intelligenz, auch geschürt durch die Vorstellung, denn wir sehen natürlich immer das, was in den Zeitungen geschrieben wird – immer das Cutting Edge, das Neueste –, aber wenn es dann darum geht, das in der Wirtschaft einzusetzen, dann schaut die Wirklichkeit noch einmal ganz, ganz anders aus.

Deswegen sehen wir eigentlich: Wenn wir in der Forschung sind, geht es meistens nur bis zu den Vorhersagen, und die wenigsten schaffen es dann wirklich, diese Forschung auch in Aktionen und Unternehmen einzubringen. Das ist die große Herausforderung, die wir insgesamt haben.

Dabei müssen wir verstehen: Wir kreieren nur Mehrwert, wenn wir es schaffen, zum Beispiel so einen Algorithmus, der erkennen kann, ob eine Transaktion jetzt ganz anders war, in ein Tool reinzubringen, das den Kunden informiert: Na ja, da war irgendwie eine Transaktion von Ihrem Konto, die schaut anders aus, waren das wirklich Sie oder nicht?

Oder hier ein anderes Beispiel, ein Algorithmus, der erkennen kann, ob du die Person bist oder nicht: Der hat eigentlich keinen Mehrwert, wenn wir es nicht schaffen, das irgendwie mit einer Anwendung zu verknüpfen, die jetzt sagen kann: Okay, hey, ich entsperre dein Handy oder ich mache die Bezahlung, ich kann sichergehen.Und auch, wenn es darum geht, Algorithmen zu bewerten, geht es nicht um die Vorhersage, sondern die Aktion, die getriggert wird. Die Aktion kann entweder sein, wir benutzen solch einen Algorithmus, um jetzt überall zu erkennen, wer auf der Straße herumläuft, also Massenüberwachung. Wer findet solch eine Anwendung, so etwas positiv? – Keiner. Aber wer würde es okay finden, wenn ich die gleiche Anwendung jetzt nutzen würde, um Ihre Tochter oder Ihren Sohn, die oder der verloren gegangen ist, in den Massen zu finden; dass man so etwas dafür hat? – Ja, da melden sich dann schon wieder mehrere.

Man sieht, es sind nicht die Vorhersagen, sondern die Aktionen, die solch ein Modell macht, und letztendlich dann auch der Mehrwert, den es bringt. Und dann müssen wir verstehen, dass KI oftmals nur der kleinste Teil ist und solch ein KI-Modell in einem technologischen Environment eingebettet ist und dann auch noch im Unternehmen irgendwie eingesetzt werden muss.

Was wir verstehen müssen – das ist der Gründer der Firma Open-AI, der Firma hinter Chat-GPT, Sam Altman, und er sagt es selbst. Worum geht es?

*****

(Es folgt eine Videoeinspielung.)

*****

Also es geht nicht um das Modell, sondern es geht praktisch um den Mehrwert, den es gebracht hat. Jetzt müssen wir uns fragen: Was ist überhaupt der Mehrwert, den wir durch solch eine Technologie wie künstliche Intelligenz sehen?

Wenn wir in Unternehmen hineingehen, sehen wir eigentlich vier große Vorteile von KI: Der eine ist: Es hilft, bessere Entscheidungen zu treffen, und wir dürfen nicht übersehen, wie wichtig es ist, gute Entscheidungen zu treffen, denn es gibt eigentlich nur zwei Sachen, die darüber bestimmen, wo wir in der Zukunft sein werden: Das ist zum einen Glück oder Pech und die Qualität unserer Entscheidungen, die wir treffen.

Und wenn wir uns anschauen, wie das funktionieren kann: Wir haben verschiedene Arten von Entscheidungen oder Informationen, die wir nutzen können: einmal: Was ist passiert?, dann das andere Mal: Warum ist es passiert? Was wird als Nächstes passieren?, und dann: Was können wir tun?

Ich arbeite zum Beispiel in Deutschland auch mit der Bundeswehr zusammen und habe hier einmal eine Anwendung – jetzt weniger aus der Wirtschaft, sondern auch aus der Bundeswehr – mitgebracht, die jetzt zum Beispiel gerade im Ukrainekrieg genutzt wird. Also hier sieht man zum Beispiel, dass das Bessere-Entscheidungen-treffen gerade auch verwendet wird. Hier werden zum Beispiel Satellitenbilder genutzt, um zu erkennen: In der Ukraine gibt es Truppenbewegungen, also was ist passiert, auf einmal hat sich eine Truppe bewegt? Wo wird sie sich hinbewegen? Jetzt werden teilweise Entscheidungen übernommen, das kann man hier sehen. Automatisch wird jetzt zum Beispiel eine Drohne geschickt oder gefragt: Sollen wir eine Drohne schicken?, um eine bessere Videoüberwachung zu machen. Und dann gibt es auch die Möglichkeit, sich Vorschläge geben zu lassen: Wie sollten wir handeln? Was wird passieren?

Das ist jetzt eine Anwendung aus dem Militär, aber so etwas finden wir auch sehr viel in der Wirtschaft, um zum Beispiel vorherzusagen: Irgendwie klingt die Maschine, die wir jetzt nutzen, gerade ein bisschen anders, was ist passiert? Warum ist das passiert? Was sollten wir tun, sollten wir vielleicht jetzt jemanden hinschicken, der die Maschine wartet, weil sie sonst ausfällt und die ganze Produktion stillsteht?

Was sind zum Beispiel jetzt andere Sachen, die wir haben? Ich zeige es einfach noch einmal kurz, die sahen ganz cool aus: Da wird ein Drohne hingeschickt und man kriegt dann automatisch ein Bild und kann dann eigentlich sehen, auch so Handlungsvorschläge bekommen, was man als Nächstes machen soll.

Das andere, ganz klassisch: Wenn wir oder wenn ich in ein Unternehmen hineingehe, geht es immer darum, Kosten zu reduzieren. Und ein gutes Beispiel dafür ist natürlich Chat-GPT. Hier sehen wir zum Beispiel eine Studie, ganz früh, was überhaupt der Effekt von Chat-GPT auf die Produktivität ist.

Wir sehen – wir haben eine Kontrollgruppe, also eine Gruppe, die nicht Chat-GPT nutzen durfte, die andere durfte es nutzen –, wie stark sich auf der einen Seite die Zeit reduziert, gleichzeitig aber die Qualität der Arbeit zunimmt. Und wenn wir überlegen, was das bedeutet, wenn ich auf einmal allen meinen Mitarbeitern die Möglichkeit gebe, zu verstehen, wie man Chat-GPT richtig nutzt, was für Produktivitätszuwächse ich dafür bekommen kann – und das ist super einfach, nicht schwierig umzusetzen. Ich brauche einfach nur Training. Eigentlich hat jeder, der Internet hat, Zugang zu Chat-GPT, also gar nicht so schwer. Die meisten Unternehmen machen es trotzdem immer noch nicht.

Meine erste Stufe damals in der professionellen Welt war, damals habe ich für ein KI-Start-up in der Radiologie gearbeitet – da haben wir jetzt auch vorher schon ein paar Sachen gehört –, was die gemacht haben: Die haben Radiologen geholfen, Anomalien zu entdecken, und dadurch konnte man extrem Zeit sparen, die man braucht, um solch einen Befund zu machen, und man konnte Fehler reduzieren. Solche Lösungen helfen natürlich auch, Kosten zu sparen oder mehr Umsatz zu machen.

Dritter Punkt: Personalisierung. Wir kennen das natürlich alle von Netflix: Jeder Netflix-Account schaut für uns ein bisschen anders aus. Was die wenigsten Leute wissen: Netflix entscheidet auch über das erste Bild, denn das erste Bild für einen Film ist dafür entscheidend, ob ich ihn anschauen möchte oder nicht. Und Netflix – das nennt man Thumbnail, das erste Bild – produziert ganz, ganz viele verschiedene Bilder und sucht dann je nachdem, was mich interessiert, das richtige Bild für mich aus, was mich am meisten anspricht.

Also kann es zum Beispiel sein, dass, wenn ich jemand bin, der gerne romantische Komödien anschaut, das Bild, das ich von „Good Will Hunting“ sehe, ein Pärchen ist, das sich küsst, und wenn ich eher Comedyserien anschaue, ist die Person, die ich sehe, ein Comedian. Genauso: Wenn ich ein Fan von Uma Thurman bin oder John Travolta, sehe ich ein anderes Thumbnail bei „Pulp Fiction“.

Der letzte Punkt ist: Wenn wir auch vor allem von der Start-up-Welt sprechen, ist zu überlegen: Was für neue Businessmodelle kann KI schaffen? Also wie kann es neuen Mehrwert schaffen? Und ich finde es immer sehr spannend, das zu überlegen – ich habe einen der größten Start-up-Inkubatoren in Europa aufgebaut, damals für die Schwarz-Stiftung in Heilbronn –: Wie kann KI existierende Produkte verbessern und sie somit attraktiver machen?, auf der einen Seite, und auf der anderen Seite: Wie kann ich jetzt vielleicht komplett neue Unternehmen schaffen mithilfe von KI, die es vorher nicht gab?

Ich habe ein Beispiel mitgebracht: Wie kann man ein Produkt, das man schon hat, mit KI aufwerten? – Das ist zum Beispiel so ein Vogelhäuschen, das habe ich meiner Mutter damals zu Weihnachten geschenkt, da ist eine Kamera drinnen, und wenn der Vogel ankommt, macht es automatisch ein Foto. Und man sieht: Es gibt eine normale Version und eine KI-Version. Was kann die KI-Version? – Die KI-Version kann jetzt zum Beispiel erkennen, welcher Vogel das ist, und zeigt das praktisch für einen an.

Das ist so ein Beispiel, wie man in ein klassisches Produkt einfach KI eingebaut hat. Bei manchen Produkten macht es mehr Sinn, bei manchen weniger. Ich habe letztens eine Zahnbürste gesehen, die KI nutzen kann, da fand ich es irgendwie weniger nützlich.

Jetzt müssen wir uns natürlich fragen, wenn wir den Mehrwert sehen: Wie schaut das KI-gestützte Unternehmen der Zukunft aus? Und wie kann man diese ganze KI-Landscape, die verschiedenen Typen von Unternehmen, die mit KI Geld machen, verstehen? – Zum einen haben wir so einen Infrastruktur- und Talent-Layer, wo wir dazuzählen: Einerseits brauchen wir Daten – haben wir vorher gesehen –, ganz viele Daten, um KI zu machen, da gibt es Firmen, die einem helfen, diese Daten zu bekommen, die zu säubern und aufzubereiten, damit ich die nutzen kann. Wir brauchen natürlich ganz viel Rechenpower, um diese ganzen Rechnungen zu machen. Deswegen haben wir Firmen wie Nvidia, die diese Rechenpower zur Verfügung stellen – das ist mittlerweile eine der meistbewerteten Firmen überhaupt. Also jedem, der vor einem Jahr in Nvidia investiert hat, herzlichen Glückwunsch! Und natürlich haben wir auch Expertise, das sind die Unternehmen, die zum Beispiel andere Unternehmen beraten, aber auch Experten ausbilden, wie die Universitäten.

Dann haben wir natürlich unseren KI-Layer, diesen Foundationallayer, Technologylayer, das sind dann solche Sachen, so Grundlagenmodelle wie GPT-4, GPT-5, Llama, da gibt es ja verschiedene Firmen, und dieser Markt ist gerade extrem hart umkämpft.

Den Marktleader, den kennen wir alle, Chat-GPT oder GPT-4, aber es ist sehr, sehr schwierig, hier irgendwie aus der Masse herauszustechen. Und es ist sehr spannend, wie sich das hier in der Zukunft entwickeln wird.

Darüber hinaus gibt es dann noch so einen Developmentlayer, also alles, was es unglaublich einfach macht, künstliche Intelligenz zu entwickeln und dir dabei hilft, das zu machen.

Und dann haben wir einen Applicationlayer, das sind die ganzen Start-ups, die wir kennen, zum Beispiel das Start-up, wo ich gearbeitet habe, in der Radiologie, die KI einsetzt, um irgendeine Lösung für den Endkunden zu haben.

Die Frage ist: Haben wir jetzt etwas Wichtiges vergessen? – Natürlich, wir haben etwas ganz, ganz Wichtiges vergessen, und zwar den Endkunden, den, der die ganze Lösung kauft. Das sind entweder Sie, die Sie hier im Publikum sitzen, oder das ist die Wirtschaft. Und wenn es diese Personen, den Endnutzer nicht gibt, dann bricht alles zusammen, denn das ist der, der eigentlich am Ende des Tages für diese Lösungen zahlt. Dementsprechend, ähnlich wie bei der Mehrwertsteuer, ist der Mehrwert nur da, wenn der Endnutzer das nutzt, denn der ist ja der, der für alles dann letztendlich zahlen muss. Und der Cashflow – und das Geld fließt – fließt immer weiter nach unten. – Und so kann man das ein bisschen verstehen.

Jetzt müssen wir uns aber überlegen: Jetzt haben wir eigentlich hauptsächlich über neue Unternehmen gesprochen. Ich möchte aber auch anschauen: Wie kann ein Endnutzer, wie kann ein Unternehmen vielleicht KI nutzen, um sich richtig aufzustellen?

Eine Sache habe ich noch vergessen, das jetzt gekommen ist: Natürlich haben wir noch so einen Regulation- und Compliancelayer, der jetzt immer mehr kommt, mit dem EU-AI-Act muss man natürlich auch Sachen machen, mit GDPR, ist natürlich auch sehr wichtig.

Und wir müssen überlegen: Wie können Unternehmen davon profitieren? Und wenn wir über KI sprechen, denken wir immer darüber nach: Wie kann ich neue Produkte bauen?, aber ich finde, was sehr spannend ist: Wie kann ein Unternehmen sich komplett neu aufstellen, um KI zu machen?

Zum Beispiel Uber: Was Uber macht, ist ja kein neues Business. Wir haben schon Taxis, die sind schon Jahre davor herumgefahren. Was sie gemacht haben: ein komplett neues operatives Modell aufzubauen, wo man KI nutzen kann, um das Ganze viel effektiver und besser zu gestalten – und natürlich auch kundenfreundlicher.

Was wir sehen, ist so etwas: Wir kommen mit KI, wenn wir vom operativen Geschäft sprechen, immer näher an so etwas ran, was wir Zero Operational Cost nennen, dass es immer einfacher wird oder weniger Leute braucht, um Mehrwert zu generieren. Das ist ein Trend, den wir schon in den letzten Jahren gesehen haben, dass man immer weniger Leute braucht, um als Unternehmen mehr Geld zu verdienen.

Jetzt müssen wir uns überlegen, wenn wir das mit KI weitermachen: Wie schaut dann die Zukunft der Unternehmen aus? Was sagte Sam Altman dazu? Er sagte zum Beispiel das:

*****

(Es folgt eine Videoeinspielung.)

*****

Also die Vorhersage von Sam Altman, dem CEO von Open-AI, ist, dass man in Zukunft sehen wird, dass es eine Firma gibt, die 1 Milliarde wert sein wird, die nur von einer Person geleitet werden kann, da alles andere dank künstlicher Intelligenz automatisiert wird. Das heißt: Wie müssen wir über den Einsatz von KI in Unternehmen nachdenken? Wir haben eigentlich zwei Möglichkeiten: Setze ich KI in meinen Angeboten oder in meinen Prozessen ein? – Wenn ich sie in meinen Angeboten einsetzen kann, habe ich entweder Produkte, die ich mit KI anreichern kann – das haben wir vorher gesehen –, oder ich habe meine Dienstleistungen, die mir auch helfen, die irgendwie attraktiver zu machen, besser zu machen, günstiger zu machen, alles Mögliche; also dementsprechend kann ich entweder existierende Produkte oder Dienstleistungen verbessern, oder ich kann ein komplett neues Business, neue Produkte aufbauen, die ich vorher nicht machen konnte.

Wenn wir auf der Prozessseite sind, schaut das wieder ein bisschen anders aus. Auf der Prozessseite muss ich mir überlegen, es gibt verschiedene Prozesse: Was sind universelle Prozesse? – Zum Beispiel schreibt jeder Mitarbeiter E-Mails, dann kann mir so ein Tool wie Chat-GPT da extrem helfen, weil es jeden Mitarbeiter betrifft und er davon profitieren kann. Ich habe industrie- und funktionsspezifische Prozesse. Ein funktionsspezifischer Prozess ist so etwas wie HR, Human Resources; wenn ich in die eine Firma gehe, und dann in der anderen Firma HR mache, dann schaut der Prozess relativ ähnlich aus. Oder wenn wir im Gesundheitssektor sind: In Krankenhäusern schauen die Prozesse sehr, sehr ähnlich aus. Dann habe ich noch organisationsspezifische Prozesse, das sind Prozesse, die nur ich habe und kein anderer hat.

Wenn es darum geht, jetzt zu überlegen, wie ich künstliche Intelligenz einsetzen möchte, dann können wir uns das so vorstellen: Wenn wir von den universellen Prozessen zu den spezifischen gehen, gehen wir von generellen Sachen zu sehr einzigartigen. Bei den generellen Sachen ist ein sehr großer Markt da, weil es sehr viele Leute betrifft. Deswegen werden wir hier eigentlich schon viele Lösungen vom Markt finden und es macht wenig Sinn für ein Unternehmen, in diesen Prozessen selbst etwas zu entwickeln. Deswegen kann ich hier eigentlich vom Markt oftmals schon Sachen kaufen. Der Markt entwickelt sich rapide, ich werde immer mehr und mehr kaufen können.

Wenn es darum geht, in spezifische Prozesse einzugreifen – also in Sachen, die nur ich habe; das Problem hat wahrscheinlich nicht jeder, nur ganz, ganz wenige –, muss ich in der Lage sein, selbst etwas für mich zu bauen. Wie kann man sich das vorstellen? – Wenn ich in meinen Angeboten etwas habe, dann sollte mir das helfen, meinen Umsatz zu steigern. Hier ist noch einmal das Beispiel von diesem Vogelhaus, diesem Futterhaus: Wir sehen einmal die Version ohne KI und einmal mit KI, und wir sehen, dass sie dadurch in der Lage sind, einen ganz anderen Preis zu verlangen und dadurch vielleicht auch mehr Umsatz zu machen oder dieses Produkt noch attraktiver für die Leute zu machen. Das hilft natürlich dann auch, oder sollte helfen, meinen Umsatz zu steigern, sonst macht es wenig Sinn, es einzusetzen. Und wenn ich es in Prozessen einsetze, dann geht es darum: Wie kann ich einerseits Kosten reduzieren, aber auch die Qualität meiner Dienstleistung oder Produkte verbessern?

Ich habe ein Beispiel mitgebracht, M-Finance, das ist ein Finanzdienstleister aus Asien. Die verlangen Geld, die haben einen Slogan, der heißt: 3-1-0 – 3 Minuten dauert es, um einen Kredit zu beantragen, 1 Sekunde dauert es, um diesen Kredit zu genehmigen, und keine einzige Person ist involviert. Ich weiß, damals, als ich für mein Unternehmen einen Kredit gebraucht habe, hat das, glaube ich, drei Monate gedauert. Zu wem gehe ich lieber? Da habe ich sofort, nach 3 Minuten und 1 Sekunde wahrscheinlich, das Geld, und die schaffen es mittlerweile, mehr Transaktionen als all die großen Banken zu machen. Man muss sich vorstellen, das war 2018. Die wurden damals zu einer der wertvollsten Finanzinstitutionen und haben im Vergleich zur Bank of China unter 10 000 Angestellte und keine einzige physische Filiale. Die Bank of China hat 100 000 Angestellte.

Also wie schaffen wir es dann überhaupt noch, mit solchen KI-Unternehmen mitzuhalten und wie muss man praktisch darüber nachdenken? Wenn es um den Einsatz von KI in Unternehmen geht, sage ich immer: Man kann sich das so wie damals beim Computer vorstellen. Damals, in den Siebzigerjahren, musste man, wenn man einen Computer haben wollte, noch eigene Experten haben, die in der Lage waren, Computer zu bauen und einzusetzen. Heutzutage hat selbst mein Bäcker oder mein Friseur einen Computer und benutzt ihn für sein Geschäft. Der hat aber gar keine Ahnung, wie ein Computer funktioniert. Muss er das? – Nicht unbedingt. Das ist genau das, was wir sehen werden.

Zum letzten Punkt: Wie können KI-Strategien für Unternehmen und Wirtschaft ausschauen? Wir sehen – das ist von 2021, die Zahlen haben sich leicht geändert, nur 6 Prozent der Unternehmen haben damals KI angewendet –, ein großes wirtschaftliches Wunder passiert eben in Portugal: Da schaffen sie es, dass mittlerweile 35 Prozent der Firmen KI anwenden, das ist vom letzten Jahr von 25 Prozent hochgegangen. Wir schauen uns nachher auch noch die Zahlen von Österreich an. Wer glaubt, dass es mehr ist, wer glaubt, dass es weniger ist? Wer glaubt, dass es mehr ist? Wer glaubt, dass es weniger ist? – Okay, die meisten. Wir sehen nachher, ob wir richtig liegen.

Wie kann man sich das vorstellen? Wir sprechen oft von KI-Reifegraden. Auf der einen Seite haben wir natürlich nicht angefangen, auf der anderen Seite können wir uns eine Firma vorstellen, wie die Chinesen mit M-Finance, die fast alles automatisiert und die KI überall einsetzt. Was wir sehen, ist: Umso mehr wir von der einen Seite auf die andere Seite gehen, umso größer ist der Mehrwert, den wir mit künstlicher Intelligenz generieren können. Deswegen ist das Ziel eigentlich für Unternehmen, die immer weiterzuentwickeln, auf einen größeren Reifegrad.

Wie mache ich das, wenn ich mit einem Unternehmen arbeite? – Ich überlege mir: Na ja, wie kann mein Unternehmen in der Zukunft ausschauen, wenn KI genutzt wird? Dann muss ich mir zwei Sachen überlegen: Erstens: Was sind die Anwendungsfälle für KI in meinem Unternehmen, die mir wirklich einen Mehrwert bringen? Der zweite Punkt ist: Was sind diese Stellschrauben im Unternehmen, mit denen ich arbeiten muss? Und wenn wir jetzt mit Unternehmen an einer KI-Strategie arbeiten, schaut es meistens so aus: Wir kommen rein, versuchen zu verstehen: Okay, was ist überhaupt der Mehrwert von KI für mein Unternehmen?, dass ein Grundverständnis da ist, schauen uns dann das Unternehmen an, arbeiten mit ihm eine KI-Strategie aus, überlegen, welche Anwendungsfälle denn relevant sind, und schauen dann: Okay, welche bringen wirklich einen Mehrwert?, und: Kann ich die irgendwie auf dem Markt kaufen oder muss ich die selbst entwickeln?

Dann überlegt man sich: Wie kann man das im Unternehmen einbinden, damit es auch von Menschen genutzt wird – ein Faktor, der oftmals übersehen wird –, und wie muss man später das Performancemanagement machen, was den AI-Act betrifft, den wir in Europa haben? Das sind dann praktisch unsere Anwendungsfälle, die wir uns anschauen. Und dann müssen wir uns natürlich auch anschauen, was diese Soft Factors, diese Stellschrauben im Unternehmen sind, die man angehen muss.

Da gibt es Verschiedenes zu überlegen: Wie schaut es mit Talenten aus? Wie schaut es mit der Kultur aus, ist die bereit, KI zu nutzen? Was sind ethische Herausforderungen, die man hat? Wie reagiert man aber auch auf solche Regulatorien wie im AI-Act? Wie muss die technologische Infrastruktur ausschauen, um KI machen zu können? Sind die Daten überhaupt vorhanden? Das sind alles viele Stellschrauben, die man sich im Unternehmen anschauen muss.

Manche davon sind einfacher anzugehen, manche brauchen einfach länger. Bis eine Kultur erst einmal dazu bereit ist, zu sagen: Hey, wir interessieren uns für KI und wollen das auch aktiv nutzen!, muss man in vielen Unternehmen schon auch einiges machen; vor allem bei diesen alteingesessenen, bei den älteren, gerade Mittelständlern ist es manchmal ein bisschen schwieriger und dauert ein bisschen länger.

Ich habe gesagt, wie die Zahlen in Portugal ausschauen. Jetzt kommen die Zahlen für Österreich: 11 Prozent, von 9 Prozent hoch im letzten Jahr, das war Ende 2023. Vergleichen wir das einmal mit Portugal! Ich glaube, da können wir schon sagen: Da geht noch was, da kann man auch noch ein bisschen etwas machen und noch ein bisschen daran arbeiten. Aber man muss halt wollen und man muss gucken, dass man die richtigen Policies dafür einsetzt.

Eine Sache ist, glaube ich, abschließend noch, sehr wichtig, zu verstehen: Es geht nicht darum, ob Mensch oder Maschine – das eine kann manchmal den anderen in der richtigen Phase ersetzen –, sondern darum, wie wir damit zusammenarbeiten können. Wir hören oft: Wird KI unsere Jobs wegnehmen? Wie schaut die Zukunft unserer Jobs aus? Müssen wir überhaupt noch arbeiten? Vor allem jetzt mit Chat-GPT kam die Frage sehr groß hoch. Wir haben gesehen, wie stark der Einfluss ist, wie stark das die Produktivität erhöht und wir müssen verstehen: KI nimmt keine Jobs weg, sondern KI übernimmt immer spezifische Aufgaben.

Das hat es schon immer gegeben. Wir können einmal überlegen, wie sich die Aufgabe eines Studenten verändert hat. Vor 40 Jahren musste ich noch eine Schreibmaschine nutzen, um meine Diplomarbeit zu schreiben. Wenn ich einen Fehler gemacht habe, musste ich alles komplett umändern oder ich musste, um Research zu machen, in die Bücherei gehen.

Wir sehen, wie sich die Jobs ändern, und mit KI werden sie sich komplett ändern – und wir müssen dafür bereit sein. Es geht nicht um die Studenten, die lernen, wie man mit KI umgeht, sondern es geht vor allem um Sie, die Sie hier im Publikum sitzen. Wie kann ich es schaffen, die arbeitende Bevölkerung, für die die Technologie neu ist, mitzunehmen und da ein Verständnis zu entwickeln, damit sie damit umgehen kann? Denn eine Sache ist klar, wir sehen das schon in Studien, auch wieder: Es nimmt keine Jobs weg, sondern verschiedene Aufgaben verändern sich sehr stark. Wir sehen zum Beispiel, wie viel weniger Zeit man für Brainstorming braucht oder um Sachen zu schreiben. Editieren aber ist jetzt viel, viel wichtiger geworden.

Was wird das heißen? – Es gibt Aufgaben, die werden von KI ersetzt, die wird es nicht mehr geben, die müssen wir nicht machen. Da gibt es viele Aufgaben, die wir machen müssen, wo wir sagen: Okay, das ist auch gar nicht so schlimm! Mittlerweile verbringt ein Arzt fast 20 bis 30 Prozent seiner Zeit damit, irgendwelche administrativen Aufgaben zu machen. Es wäre doch gut, wenn er die Zeit verbringen könnte, mit Leuten zu sprechen. Das ist das große Promise, Versprechen von künstlicher Intelligenz, das wir sehen.

Und dann gibt es Aufgaben, die werden komplett automatisiert, die können wir dann halt nicht mehr machen, dann macht KI das besser. Aber wir müssen verstehen, das ist ganz, ganz wichtig, dass es nicht Mensch oder KI ist, sondern es in Zukunft so sein wird: Mensch mit künstlicher Intelligenz – und wie man praktisch zusammenarbeiten kann.

Eine Sache ist klar: KI wird keine Menschen ersetzen, sondern Menschen, die wissen, wie man mit KI umgeht, werden Menschen ersetzen, die es nicht wissen. Wir können den gleichen Satz auch noch einmal für Organisationen austauschen: KI wird keine Organisation ersetzen, aber Organisationen, die wissen, wie man mit KI umgeht, werden Organisationen ersetzen, die nicht wissen, wie man damit umgeht.

Abschließend möchte ich noch sagen, dass es für eine gute Strategie für ein Land sehr wichtig ist, nicht nur auf die Forschung zu schauen, sondern es braucht insgesamt vier Faktoren: zu überlegen, was ich mit der Forschung machen kann, um Expertise aufzubauen und auch Talente im Land zu haben. Der zweite Punkt ist: Wie kann ich eine Start-up-Kultur etablieren, die KI nutzt und dann neue Mehrwerte für meine Wirtschaft schafft? Der dritte Punkt – und das ist ein extrem wichtiger –: Wie kann ich dafür sorgen, dass meine existierende Wirtschaft, die existierenden Unternehmen von dieser Technologie auch profitieren können? Der vierte Punkt betrifft den öffentlichen Sektor: Wie kann ich dafür sorgen, dass ich mit KI die Services für meine Bürger anbieten kann, so, wie sie es sich vorstellen?

Das war mein Vortrag und ich hoffe, Sie konnten ein bisschen etwas mitnehmen. Ich freue mich nachher natürlich auf die Diskussion und bin gespannt, was die Nachredner:innen zu sagen haben. – Vielen Dank.

Günther Mayr: Vielen Dank, Tristan Post, für diese begeisterten Ausführungen zum Thema: vom Vogelhäusl bis zur Zahnbürste – haben wir gehört. Das mit dem einen Mann, der eine Firma hat, die viele Milliarden wert ist – da sind wir gebrannte Kinder, glaube ich, denn die Bewertung unterscheidet sich oft – würde ich einmal sagen – signifikant von dem, was dann am Ende des Tages übrig bleibt.

Aber das sind auch Dinge, wo eine künstliche Intelligenz vielleicht auch in den Bilanzen einmal nachschauen könnte und dort vielleicht Dinge findet, die unter Umständen verdächtig sind oder wo man Anhaltspunkte hat, dass da irgendetwas nicht mehr ganz optimal läuft. Auch das sind ja Dinge – und das haben Sie ja am Schluss, denke ich, als sehr wichtig angesprochen –: Wer sich damit beschäftigt, wird vorne sein, und wer sich nicht damit beschäftigt, nicht. Aufhalten lassen wird es sich nicht.

Die großen Unternehmen sind natürlich längst dabei, sich damit zu beschäftigen, allen voran natürlich die computergetriebenen Unternehmen und die, die sich sehr stark damit beschäftigen.

Wir alle haben tagtäglich damit zu tun. Denken Sie nur an die großen Suchmaschinen, die uns ja in Wahrheit mit ihren Algorithmen schön das vorspielen, wo wir glauben, wir sind die Intelligenten, aber in Wahrheit gibt uns das System sehr oft das, was wir wollen. Führt das dazu, dass wir mehr Demokratie bekommen oder dass wir weniger Demokratie bekommen? Das wurde hier schon in anderen Foren besprochen, das ist ein sehr zwiespältiges Problem innerhalb der KI, dass man eben, wenn man etwas Bestimmtes sucht, auch das Entsprechende immer wieder dazubekommt. Jetzt hat natürlich eine Suchmaschine genau den Auftrag, mir das zu liefern, was ich will. Aber bekomme ich vielleicht doch zu wenig von dem, was nicht meiner Meinung entspricht und ist das dann vielleicht der Weg in eine meinungsgetriebene Gesellschaft, die von Suchmaschinen vorgegeben wird?

Deshalb beschäftigen sich die großen Unternehmen sehr stark damit, wie man das irgendwie regeln kann, wie man dazu Prinzipien entwickeln kann. Wir werden jetzt Ausführungen von einem ganz großen Suchmaschinenbetreiber, von Google, hören, die haben schon 2018 begonnen, Regularien aufzustellen: Wie gehen wir intern in der Firma damit um, wie gehen wir damit um, dass wir natürlich auf eine gewisse Art und Weise die Gesellschaft mitprägen, indem wir die Suchergebnisse so steuern, indem wir vielleicht auch Werbung dort platzieren, wo sie genau hinpasst?

Lucy Georgieva ist bei Google Österreich Head of Government Affairs & Public Policy, das bedeutet genau das: die Verantwortung für die Gesellschaft, für die Gesamtentwicklung einer Demokratie und wie das mit einer Suchmaschine zusammenhängt. Den digitalen Wandel mit responsible-AI-gesteuerten Prinzipien bewältigen; das ist der Vortrag, den sie hier halten möchte. Ich denke, das ist ein wichtiger Punkt, der uns täglich alle betrifft: Wie geht so ein Gigant damit um? – Bitte, Frau Georgieva.

Ludmila Georgieva (Head of Government Affairs & Public Policy, Google Austria): Vielen Dank, auch für die sehr netten Begrüßungsworte und für die steile Vorlage von Tristan. Ich glaube, jetzt wurden alle aufgeweckt, ich persönlich brauche keinen Kaffee mehr. Ich bin aber auch dem Herrn Nationalratspräsidenten sehr dankbar für diese Einladung, um über so ein wichtiges Thema auch in diesem Hause, im Parlament sprechen zu dürfen. (Die Rednerin unterstützt in der Folge ihre Ausführungen mittels einer Powerpoint-Präsentation.)

Künstliche Intelligenz ist in aller Munde, aber warum ist das so? Was macht KI so besonders? Wir haben heute schon mehrere Beispiele von Tristan gehört. Ich würde gerne ein bisschen weitermachen: Brustkrebs oder zum Beispiel auch diabetische Retinopathie, die zu Blindheit führt. All das kann KI zum Beispiel heute besser und schneller erkennen, damit Patientinnen und Patienten frühzeitig versorgt sind.

Naturkatastrophen, Hochwasser, Waldbrände: Mittlerweile kann KI all das mindestens sieben Tage vorhersagen. Somit können wir eigentlich Menschen retten, weil wir Menschen in Dörfern, in Städten frühzeitig warnen können. Hier sehen Sie, wie unser Modell das zum Beispiel für einen Fluss in Indien vorhersagt. Das schaut nicht so toll aus, wie es eigentlich klingt. Es ist Alpha-Fold, unser KI-gestütztes Programm. Das war einer der großen KI-Breakthroughs, wie wir das nennen.

Mit diesem Programm kann man mittlerweile 3D-Strukturen aller 200 Millionen Proteine vorhersagen und Wissenschaftler:innen 100 Millionen Jahre an Forschungszeit ersparen. Das ist ein immenser Sprung in der Medizin. Das ist natürlich das, wo wir den medizinischen Fortschritt und auch die Gesundheit von Menschen auf der Welt unterstützen. Mittlerweile gibt es Berichte, dass mit diesem Proteinprogramm tatsächlich auch Leben von Menschen mit spezifischen Krankheiten gerettet wurden.

Ganz banal: Ampelschaltungen. Man könnte eigentlich mit einer smarten Stop-and-go-Regulierung bei Ampelschaltungen CO2-Emmissionen einsparen. Auch da hilft KI.

Auch der Alltag wurde angesprochen, die Suchmaschine aber auch Google Maps. Diese verwenden sogenannte Immersive Views. Da wird die Route, die wir fahren oder gehen werden oder mit dem Rad fahren möchten, einfach vorher mit KI erstellt und ich kann mir das genau anschauen, teilweise auch bei unterschiedlichen Wetterlagen.

Es wurde auch angesprochen, KI kann, wird und hat unseren Alltag, unsere Arbeit, unsere Kommunikation und auch das alltägliche Leben schon leichter und effizienter gemacht. User und Unternehmen verlangen das eigentlich von uns. Gemini ist unsere Antwort auf die Generative-AI-Innovation, unsere Antwort oder unsere Lösung in Bezug auf Chat-GPT.

Es wurde schon angesprochen, wir haben schon vor zehn Jahren angefangen, uns mit KI sehr tief zu beschäftigen. Die Größe erlaubt uns natürlich auch, mit einer Engineeringpower an das Thema heranzugehen und da wirklich bahnbrechende Lösungen für den Markt und auch für die Gesellschaft zur Verfügung zu stellen.

2015 hat Google Deep-Mind Alpha-Go den Go-Champion besiegt. 2017 zum Beispiel wurde zu Transformer eine ganz grundlegende Forschungsarbeit von einem Google-Team veröffentlicht. Transformer ist auch das T in Chat-GPT. Insofern sieht man also, wie da Zusammenarbeit und wie da eine offene Kommunikation und offene Gesellschaft die Digitalisierung voranbringt.

Wir haben eben die KI-Forschung seit über zehn Jahren vorangetrieben, etwas leise, nicht so prominent, und wir sind Chat-GPT fast dankbar, weil mittlerweile alle Menschen mit KI etwas anfangen können. Deswegen nennen wir uns auch AI-First-Company, und wir haben auch hier, hier ganz ein bisschen weiter unten – darauf gehe ich später ein –, unsere Prinzipien – sie wurden schon angesprochen –, die wir uns gegeben haben.

Ich heiße Lucy Georgieva und ich leite wie gesagt die politische Arbeit für Google in Österreich. Ich freue mich sehr, mit Ihnen heute ein bisschen einen Einblick zu wagen, wie wir bei Google die KI-Arbeit angehen und wie wir KI gestalten.

Persönlich glaube ich, dass KI ein großes Potenzial hat, unser Leben positiv zu gestalten, und ich möchte, dass Sie alle diesen positiven Aspekt heute mitnehmen. KI birgt auch ein großes gesellschaftspolitisches und wirtschaftliches Potenzial – darauf gehe ich später ein und werde Sie dann auch mit ein paar Zahlen ein bisschen langweilen –, und deswegen ist ganz, ganz wesentlich – da möchte ich die Begeisterung von Tristan eine Spur bremsen und sagen –: KI muss verantwortungsbewusst gestaltet werden und dieser verantwortungsvolle Umgang ist ganz, ganz wesentlich, damit auch Sie, als User und Userinnen oder auch als Vendor:innen oder Unternehmen tatsächlich auch Vertrauen in KI haben, um das Potenzial zu nützen.

AI ist der Third-Big-Shift, wie man so schön auf Englisch sagt, der große dritte technologische Wandel. Wir stehen an einem technologischen Wendepunkt seit der Erfindung des Internets. Als der zweite große technologische Fortschritt wurden die Mobilgeräte genannt. Ich kann mich erinnern, ganz am Anfang mit den großen Nokia-Geräten war das war relativ umständlich, heutzutage können wir uns diese kaum wegdenken – wir tragen Uhren, wir tragen Headsets, wir tragen Handys und ganz, ganz viele andere Gadgets. Nicht umsonst betrachten auch wir bei Google die künstliche Intelligenz als Third-Big-Shift, weil das eben ein ganz, ganz großes Potenzial in sich birgt. Sie kann aber auch – wie wir vorhin schon gehört haben – die Welt voranbringen, und zwar wesentlich, ganz besonders und im Vergleich zu früheren Technologien. Es geht da um Klimawandel, es geht um Gesundheit, es geht um medizinische Versorgung von Milliarden von Menschen weltweit, es geht um Wirtschaftswachstum und Aufrechterhaltung des Wirtschaftsstandortes.

Wir sind also an einem Wendepunkt – es ist ein einzigartiger Moment –, und der Wendepunkt kommt mit ganz, ganz großen Schritten. Das Tempo ist sehr schnell, der technologische Fortschritt ist natürlich immens, weil AI den technologischen Fortschritt an sich schon potenziert, aber – wie gesagt – das Potenzial ist, dass man das Leben von Milliarden von Menschen weltweit verbessern kann. Aber auch hinsichtlich Unternehmen: Studien besagen, dass Volkswirtschaften und Unternehmen, die sich der digitalen Transformation und KI angenommen haben, besser für die Zukunft gewappnet sind und natürlich ein größeres Wachstum aufweisen. Tristan hat das wunderbar mit den Grafiken ausgeführt, ich werde das hier jetzt heute ein bisschen aussparen.

Was aber für uns als Google ganz wichtig ist, ist unser Google-Missionstatement: die Informationen dieser Welt zu organisieren und allgemein zugänglich und nutzbar zu machen. Wir möchten die Menschen dieser Welt durch Zugang zu Wissen und zu Technologien für diesen neuen Wandel wappnen. Um es auch hier mit ein paar Zahlen zu veranschaulichen: Wir haben für Deutschland mit dem Institut der deutschen Wirtschaft letztes Jahr eine Studie in Auftrag gegeben und ich darf hier gleich sagen – natürlich kann man die Zahlen für Österreich nicht eins zu eins umlegen, deswegen haben wir uns auch vorgenommen, für Österreich so eine Studie für das zweite Halbjahr durchzuführen, aber heute müssen wir uns leider mit den Zahlen aus Deutschland begnügen –, die Zahlen sind ziemlich erstaunlich. Das Institut der deutschen Wirtschaft hat nachgeforscht und nachgefragt und festgestellt, dass Produkte wie Google-Ads, Android-Cloud, Google-Suche, Youtube 2023 geschätzt mindestens 53 Milliarden Euro zur Bruttowertschöpfung beigetragen haben. Das ist die Grundlage für 860 000 Arbeitsplätze! Das sind mehr als direkt in der deutschen Automobilindustrie Beschäftigte – nur damit Sie sich ein bisschen den Umfang vorstellen können.

Wenn wir vom ökonomischen Potenzial von KI sprechen, geht es weiters auch darum, dass bei dieser Studie aufgezeigt wurde, dass neue KI-gestützte Technologien – unter den richtigen Bedingungen: Compliance, AI, das wurde angesprochen und wird auch später angesprochen werden – in Zukunft einen wirtschaftlichen Wert von 330 Milliarden Euro für die deutsche Wirtschaft bedeuten könnten.

Derzeit verwendet jedes sechste Unternehmen in Deutschland KI. Das sind circa 17 Prozent. Wir sind irgendwo im mittleren Feld, bei Portugal – laut Beispiel, das Tristan angeführt hat. Um dieses Potenzial von 330 Milliarden Euro tatsächlich erreichen zu können, müssen aber in Deutschland 50 Prozent der Unternehmen KI nützen, das heißt, jedes zweite Unternehmen. Für Österreich schauen die Zahlen ein bisschen düsterer aus. Tatsächlich sind es 8 Prozent der heimischen Industriebetriebe, die tatsächlich KI benützen, und 15 Prozent der Leitbetriebe.

Das sind aber nicht nur Zahlen, es sind auch Chancen und auch ein großes Potenzial, das uns alle – Menschen und Unternehmen – ein Stück weiterbringt. Bei Unternehmen geht es – das wurde auch angesprochen – um operationelle Effizienz, Kosteneinsparung und Wertschöpfung.

Ich werde Ihnen hier jetzt ganz schnell – damit ich Sie nicht langweile – ein paar Usecases anführen, was man mit KI an und für sich oder generativer KI tatsächlich machen kann: Man kann eben Essensbestellungen machen, man kann im Auto In-Car-Assistance nutzen, oder auch auf Reisen: mit dem Assistenten reisen. Natürlich gibt es auch intern in Unternehmen ganz große Usecases, wo es darum geht. Wir haben zum Beispiel mit der Vienna Insurance Group ein Projekt entwickelt, das mittlerweile in Wien einen Innovationspreis gewonnen hat. Es nennt sich Voogle, und es geht darum, intern alle Dokumente – wie eine Art Suchmaschine – bearbeiten zu können, die richtige Antwort mit Gemini zu finden.

Ich darf Ihnen noch einmal ein Stückchen weiter die verschiedenen Usecases für Unternehmen granulieren. Man kann sie in drei große Bereiche untergliedern: sprachliche Onlineinteraktionen, Contentgenerierung und intuitiv zugängliche komplexe Daten zugänglich machen. – Das ist für Unternehmen.

Uns geht es aber auch ein bisschen um die Menschen. Was kann KI eigentlich für die Gesellschaft herbeiführen? – Diese Studie vom Institut der deutschen Wirtschaft aus dem letzten Jahr hat sich das auch noch einmal für den Alltag der Menschen angeschaut und tatsächlich festgestellt, dass es da in drei Bereichen drei Elemente identifiziert: Intelligente Technologien erleichtern den Alltag und das private Leben, intelligente Technologien stärken die gesellschaftliche Teilhabe – ich persönlich sage immer, die Digitalisierung demokratisiert die Gesellschaft ein Stück weiter – und drittens ermöglichen sie berufliche Entwicklung.

Hier kommen wir zu einem für mich persönlich sehr wichtigem Thema: Digital Skills und Upskilling. Für Österreich, aber auch weltweit haben wir Grow-with-Google oder die Google-Zukunftswerkstatt ins Leben gerufen. Das sind Onlineangebote, die kostenlos zum Upskilling zur Verfügung stehen. Und wir arbeiten in Österreich mit Initiativen wie Fit4Internet, The-Female-Factor, Austrian Startups und dem Future Learning Lab zusammen, wo wir eben Digital Upskilling im Bereich KI und allgemein im Bereich Digitalisierung vorantreiben möchten.

Bei all den Möglichkeiten gilt es jedoch – das ist entscheidend – nicht zu vergessen, dass es bei KI natürlich um eine weitere Technologie geht. KI birgt natürlich, wie jede andere Technologie, auch Risiken. Wenn Menschen KI aber nicht verwenden, werden auch Unternehmen KI nicht anwenden, und dann bleibt für beide, sowohl Mensch als auch Unternehmen, das Potenzial der KI auf der Strecke. Wir wollen sie natürlich – weil wir sehr begeistert sind von der Digitalisierung – vorantreiben und unterstützen.

Wie gesagt, KI verändert, wie wir kreativ denken, wie wir arbeiten, wie wir miteinander kommunizieren, und sie kreiert ganz neue Welten, teilweise auch Welten, die wir uns noch gar nicht vorstellen können. Wie ich bereits ausgeführt habe: Wendepunkt – das ist ein Moment wie jener, in dem wir uns gerade befinden, und natürlich birgt KI Möglichkeiten für ganz viele spannende Anwendungen. Die Frage ist aber: Wo wende ich diese an, und sind sie eigentlich auch demokratiepolitisch zulässig?

Deswegen sagen wir bei Google: bold, responsible, together. – Wir wollen mutig sein, diese Technologien auch anzuwenden, dabei verantwortungsbewusst mit ihnen umgehen und dies gemeinsam tun – gemeinsam mit allen Stakeholdern der Zivilgesellschaft, der Wissenschaft, der Wirtschaft und der Politik.

Wir haben uns auch, wie schon erwähnt, 2018 als eines der ersten Unternehmen weltweit selbst KI-Prinzipien gegeben. Diese KI-Prinzipien sind: Die KI muss auf jeden Fall der Gesellschaft nutzen. Es geht um Vermeidung der Entstehung oder Verstärkung unfairer Tendenzen oder Voreingenommenheit – sogenannter Unfair Bias. Es gilt natürlich: Sicherheit geht vor – Safety first. Es muss natürlich am Ende eine menschliche Verantwortlichkeit gegeben sein. Ganz wichtig sind Datenschutz und Privatsphäre – Privacy by Design. Ganz wichtig für uns als Unternehmen, das aus einem wissenschaftlichen Projekt – Google – entstanden ist, ist die Einhaltung höchster wissenschaftlicher Standards. Und – siebtens –: Alle oben genannten sechs Prinzipien müssen natürlich zutreffen.

Wir haben uns 2018 eben diese Prinzipien gegeben und haben dann auch festgestellt, es gibt auch Bereiche der Nichtanwendung. Sechs Monate später haben wir diese vier Bereiche, diese Non-applications, auch veröffentlicht. Als ganz wichtig zu nennen sind allgemeine Gefährdung, Waffen, die direkt schädigen, und natürlich die Frage der Surveillance. Es wurde zum Beispiel auch die Gesichtserkennung angesprochen, und ich darf dazu ein Beispiel dafür bringen, wie wir diese Prinzipien anwenden: Bezüglich Gesichtserkennung haben wir als erstes Unternehmen weltweit beschlossen, sie nicht überall anzuwenden. Wir haben als erstes Unternehmen ein sogenanntes Human-Rights-Impact-Assessment gemacht. Wir haben als erstes Unternehmen gesagt: Man kann Gesichtserkennung nicht überall anwenden, sondern nur für ganz spezifische, fokussierte Zwecke. Wir haben – das ist mein Lieblingsbeispiel – ein sogenanntes Celebrity-API ins Leben gerufen, wobei man öffentliche Personen in dieser Datenbank finden kann.

Prinzipien sind schön und gut, wenn sie nur auf dem Papier bleiben. Sie müssen auch angewendet werden. Deswegen haben wir diese Prinzipien für uns auch in einer internen Governance, in unserer internen Struktur und in unseren Prozessen implementiert. Wir haben ganz viele Technologien, Infrastruktur geschaffen, jährliche Trainings für alle Mitarbeiterinnen und Mitarbeiter, aber auch, ganz wichtig – der vierte Punkt –, Partnerships. Wir arbeiten mit ganz vielen Universitäten, mit ganz vielen zivilgesellschaftlichen Akteur:innen zusammen, weil wir sagen: KI kann nicht alleine gemacht werden.

Auch – noch einmal –: KI-Prinzipien sind schön und gut auf dem Papier. Wir aber halten uns eben verantwortungsvoll daran, und jedes Jahr bringen wir einen sogenannten AI-Principle-Progress-Update. Für alle, die sich gerne mit KI beschäftigen, ist das eine Fundgrube von wissenschaftlichen Ausführungen, Studien, aber auch Informationen darüber, wie wir bei Produkten diese KI-Prinzipien tatsächlich anwenden. Das ist eine Lektüre, die ich allen empfehle. Es ist auch ganz spannend, zu sehen, wie ein Unternehmen intern mit KI umgeht.

KI hilft, wie wir schon festgestellt haben, bereits jetzt, gesellschaftspolitische, wirtschaftliche Problemlagen zu lösen, vor allem auch Dinge wie den Klimawandel oder auch Krankheiten zu bewältigen. KI kann eine starke Kraft sein, sowohl den gesellschaftlichen Fortschritt als auch Fairness in der Gesellschaft zu fördern. Diese Fairness kann natürlich nur umgesetzt werden, wenn wir mit KI verantwortungsbewusst umgehen, und das ist uns ganz, ganz wichtig.

Wir haben natürlich auch – das habe ich vergessen zu erwähnen – ganz viele Forschungspublikationen dazu, weil wir sagen, Grundlagenforschung muss für alle offen sein. Wir publizieren jährlich über 1 000 Forschungsbeiträge zum Thema KI und Research im Allgemeinen – öffentlich zugänglich.

Ich bedanke mich ganz herzlich fürs Zuhören, darf aber vielleicht, bevor ich meine Ausführungen abschließe, oder als Abschluss, anstelle von Schlussworten, ein Video sprechen lassen, mit dem ich Ihnen gerne veranschaulichen möchte, wie wir das Verantwortungsprinzip bei Google sehen, und zwar: Wir denken Verantwortung in einer globalen Dimension und machen KI hilfreich für alle. – Vielen Dank, und jetzt kommt das Video. Danke schön. (Beifall.)

*****

(Es folgt eine Videoeinspielung.)

*****

Günther Mayr: Es ist doch KI im Spiel!

Vielen Dank, Lucy Georgieva. Und ja, Marketing eines amerikanischen Unternehmens – perfekt wie immer. Die Gefahren muss man natürlich auch sehen, aber die Chancen haben wir hier sehr eindrücklich erklärt bekommen.

Es ist natürlich so, wie wir jetzt gesehen haben: Ein Großunternehmen wie Google beschäftigt sich natürlich sehr eingehend damit, weil natürlich auch klar ist, dass das gesellschaftlich akzeptiert werden muss. Man wird natürlich die positiven Beispiele bringen, aber man diskutiert – wir sehen es intern auch schon länger –: Wie gehen wir wirklich damit um? Was bedeutet es für die Demokratie? Was bedeutet es für, unter Umständen, Kriege? Es wurde angesprochen, dass man mit Waffen nichts zu tun haben will. Es wäre spannend, zu sehen, wie man das dann wirklich schafft, aber ich denke, der Ansatz ist ein wichtiger, und den werden wohl viele so sehen.

Das Problem für Unternehmen, die nicht so groß sind, ist natürlich, dass sie wahrscheinlich auch nicht die Ressourcen haben, um sich so eingehend damit zu beschäftigen. Wenn, wie wir jetzt gehört haben, in Österreich 8 Prozent der Unternehmen schon quasi KI-Anwendungen haben und es in Portugal, wenn ich es richtig gehört habe, dreimal so viel, also 25 Prozent, sind, dann sagt das schon einiges aus über eine Wirtschaft, die da vielleicht doch noch nicht alle Chancen nutzt und vielleicht aber auch das eine oder andere Tool nicht zur Verfügung hat.

Isabell Claus beschäftigt sich genau damit: Wie kann ich Informationen darüber bekommen, was da draußen denn überhaupt passiert, was die Firmen an Know-how zur Verfügung haben, und wie kann ich KI einsetzen, um ein besseres Bild der Marktlage zu bekommen, um besser wirtschaften zu können? Deshalb lautet der Titel ihres Vortrages: KI Masterplan – wo stehen Österreichs Unternehmen?

Isabell Claus: 8 Prozent. Schau einmal, wo sie stehen! (Beifall.)

Keynote III: KI-Masterplan – wo stehen Österreichs Unternehmen?

Isabell Claus (Geschäftsführerin von thinkers.ai): Vielen Dank. Mein Name ist Isabell Claus. Ich bin Mitgründerin eines Unternehmens, das thinkers.ai heißt. Es hat seinen Hauptsitz in Wien und beschäftigt sich mit der Technologieentwicklung im KI-Bereich.

Vorher durfte ich ein Unternehmen im Cybersecuritybereich leiten und mitgründen. Das ist heute der Marktführer für Cybersecurityangriffserkennung in Europa, wuchs also recht kräftig voran. Das Cybersecurityunternehmen haben wir erfolgreich an einen deutschen Konzern verkauft. thinkers.ai hat auch in kürzester Zeit eine Finanzierungsrunde nach der anderen gesichert. Das Management von hohen Wachstumsraten und hoher technologischer Innovation begleitet mich seither, seit mehr als zehn Jahren.

Was wir bei thinkers.ai machen, steht unter dem Motto: In 15 Minuten mehr wissen als der Wettbewerb – über Märkte, Technologien, Chancen und Risiken. Wir kristallisieren die geschäftsrelevanten Informationen für Unternehmen und Organisationen aller Art und aller Branchen aus dem Web heraus.

Warum wir genau das machen, ist ziemlich einfach erklärt: Es geht um die Wettbewerbsfähigkeit, und zwar aufgrund von Informationsvorsprüngen, denn in der volatilen Welt von heute, mit zahlreichen wirtschaftlichen, politischen und anderen Herausforderungen sowie Disruption, kommt eben dem Thema Umfeldanalyse und Früherkennung von Chancen genauso wie Risiken eine ganz andere Bedeutung zu, als es je war.

Kurz zusammengefasst bin ich Serial Entrepreneur und darf mich auch über einige Auszeichnungen in diesem Sinne freuen, als Unternehmerin des Jahres, Innovator of the Year, auch über einen europäischen Staatspreis, denn wir haben Technologie immer in Europa entwickelt.

Vor diesem Hintergrund darf ich Ihnen heute einen kleinen Einblick in KI-Anwendungen speziell in Österreich geben. Es ist natürlich, wie auch die Vorredner gesagt haben, schon lange kein Geheimnis mehr, dass Technologie und gerade KI mittlerweile vieles, wenn nicht alles im Geschäftsleben, im politischen Geschehen und sogar in puncto Sicherheit ganz wesentlich bestimmen.

Die Geschwindigkeit der Entwicklungen und die Hypewellen waren nie größer. Bis 2027, so prognostiziert das Technologieanalystenhaus Gartner, werden mit KI alleine in Westeuropa Umsätze in Höhe von 725 Milliarden Dollar erzielt. Vor diesem Hintergrund erscheint eine 10-Milliarden-Investition in eine Firma namens Open-AI als maximal lukratives Geschäft.

Die KI-Welt sprengt gerade alle Größenrekorde. Während der eine noch zweifelt oder kleinredet, sehen wir, die wir täglich in dieser Welt und Umgebung arbeiten, wie nachhaltig Unternehmen aller Branchen Strukturen ändern und Ernsthaftigkeit und Geschwindigkeit an den Tag legen.

Vielleicht merkt man das im öffentlichen Bereich noch gar nicht so, aber ich treffe heute kaum mehr einen Unternehmer oder eine Unternehmerin, die sich nicht bereits mit einem KI-Masterplan beschäftigen, versuchen, eine KI-Strategie zu entwickeln oder Partner zu finden, oder nicht schon die eine oder andere kleine Umsetzung getätigt haben.

Dabei ist eines aber ganz auffällig: Die Unterschiede in der Geschwindigkeit sind immens groß. Ich habe kürzlich den CEO eines großen Unternehmens in China gefragt, wie viel Zeit seiner täglichen Arbeit er sich mit dem Thema KI beschäftigt. Die Antwort war: 80 Prozent. Ich habe dann kürzlich auch in Deutschland einmal bei einer Veranstaltung mit Topmanagern gefragt: Wie viel Zeit am Tag verbringen Sie mit dem Thema KI? Die Antwort war: 10 Prozent. – Ich schätze, dass die Antwort von österreichischen Firmenlenkern sich nicht dramatisch von jener von deutschen unterscheidet.

Auch wenn das keine repräsentative Umfrage war, so ist das doch ganz eindeutig eine Indikation. Die Errungenschaften und die Geschwindigkeit der Entwicklungen im Bereich KI sind einerseits atemberaubend, aber andererseits, und das ist erschreckend, mit großen Geschwindigkeitsunterschieden behaftet.

Nun können Sie sagen, Geschwindigkeit sei nicht alles, aber mit der Geschwindigkeit kommen die praktischen Erfahrungen und, vielleicht am wichtigsten, eine hohe Bewertungskompetenz hinsichtlich dessen, was sich alles entwickelt, wie es zu verstehen ist, was man damit machen kann und schlussendlich, welchen Wettbewerbsvorteil es bietet.

Diese Bewertungskompetenz und mit ihr auch die zukünftige Wettbewerbsfähigkeit sehe ich heute in einigen Unternehmen in Gefahr. Ich mache das daran fest, dass das Wort Digitalisierung eigentlich ein viel zu schwacher Ausdruck und eine zu schwache Beschreibung von dem ist, was gerade passiert. Automatisierung bedeutet heute, dass man Prozesse statt um 10 oder 20 Prozent um 50 oder um 80 Prozent effizienter macht, und Unternehmen, die noch wenig digitalisiert sind, nehmen heute nicht sukzessive eine Hürde nach der anderen, sondern sie überspringen ganze Entwicklungen und können sofort in der KI-Welt ankommen. Man nennt das auch die Leapfroggingstrategie, die immer häufiger wird.

Nun, wer bei KI an lange IT-Projekte denkt, der liegt nicht unbedingt richtig. Neben Industrieautomatisierung und Robotik werden vor allem die generative KI, also die Text generierende, heut als die KI bezeichnet. Mit ihr kann man in sehr, sehr kurzen Entwicklungszyklen fertige Anwendungen und Produkte entwickeln. So kommt es international in dem Bereich nicht nur zu einer Vielzahl von neuen Start-ups, sondern auch zu neuen oder zumindest stark intensivierten Formen der Zusammenarbeit zwischen IT-Abteilungen und Anwenderabteilungen sowie zu erweiterten Produkten, zu intelligenten Produkten, die neue Margen oder neue Zielgruppen schaffen.

In einem sind sich sehr viele Experten und Expertinnen einig: Um KI voranzubringen, braucht es praktische Erfahrungen und eine Lernkurve, die man einplanen muss. Die Erfolgsfaktoren und Kernkompetenzen sind ganz andere als die, die aktuell in klassischen Vertriebs-, in Produktionsprozessen und -abteilungen, Finanzabteilungen und anderen Unternehmensbereichen gelebt werden. Um das zu erlernen, muss man Zeit einplanen und Partner suchen. Partnerschaften spielen heute sowieso eine ganz andere Rolle.

Seit Cloud und Co leben alle Unternehmen in einem großen Ökosystem. Das Aufbauen des eigenen Königreichs wird immer mehr in stark zusammenhängende Wertschöpfungsketten zurückgedrängt oder ist schon komplett zurückgedrängt. Technologien, allem voran KI, kosten so viel Geld, dass ein Eigenbetrieb in weite Ferne rückt.

Wie geht es den Mitarbeitenden mit dieser Geschwindigkeit und dieser Veränderung? – Wir erleben auch da einen starken Wandel. Die anfängliche Ablehnung nimmt rapide ab, die breite Bekanntheit von KI hat sehr vielen auch Lust gemacht, KI auszuprobieren und erfinderisch zu werden. Das zählt vor allen Dingen für die jungen Generationen. Ob es dem Arbeitgeber nun gefällt oder nicht, dass Tools angewendet werden, die eigentlich nicht hätten angewendet werden sollen – es ist schwer zu verhindern.

Durch diese Neugierde entsteht aber auch viel Neues und Innovatives, und das ist ganz entscheidend für die Zukunft. Ganz klar sichtbar ist heute schon, dass die Generationen, die quasi mit dem Smartphone in der Hand aufgewachsen sind, bei vielen aktuellen Prozessen die Nase rümpfen, weil sie zu lange dauern, oder den Sinn einfach gar nicht mehr erkennen. Dieses Hinterfragen, dieser Drang zur Verbesserung schaffen neuen Wert.

Ich bin der Meinung – zumindest zeigen das sehr, sehr viele Gespräche in allen Branchen –, dass man den Mitarbeitenden viel mehr KI zutrauen kann und sollte und die höchste Vorsicht, die dann auch eine gewisse Trägheit mit sich bringt, nicht länger leben muss. Die KI-Transformation in den Köpfen und in den Organisationen wird viel, viel schneller gehen als das, was wir bisher mit der Digitalisierung erlebt haben.

Die KI-basierte Innovation kommt aus allen Bereichen und Unternehmensebenen. Es gibt sie eigentlich nicht mehr, die Ausrede, dass man erst einmal zwei Jahre Daten cleanen und säubern muss, bis die Datenqualität passt. KI ist in so vielen Bereichen anwendbar, dass viel mehr der anfänglichen Analyse, wo KI wirklich Wert schafft und wo sie gut in die Praxis umsetzbar ist, zukommen sollte.

Mein Rat an Unternehmen ist immer, sich nicht gleich die allerschwerste Baustelle vorzunehmen, sondern Step by Step durch realisierbare Projekte statt durch unüberwindbare Hürden zu lernen. So lernt das ganze Unternehmen mit.

Verbote sind dabei grundsätzlich schlecht für Innovation – und damit sind wir auch ein bisschen beim Thema Regulierung. Regulierung ist – ganz klar – sehr wichtig, aber die Schwierigkeit besteht in zwei Dingen.

Erstens: In Europa haben wir einen sehr, sehr starken Regulierungsmuskel und einen minimalen Technologiemuskel. Zweiteren braucht man aber, um wirklich auch diese Bewertungskompetenz zu haben, die wiederum die Grundlage für gute Regulierung ist; darüber hinaus braucht man sie, damit man die eigenen Vorstellungen und Werte nicht nur auf dem Papier gesichert sieht, sondern damit sie wirklich geschützt sind. Ein Beispiel findet man im Bereich Cybersecurity: Ich habe noch nie einen Angreifer gesehen, der jemals erst die europäischen Gesetze durchgelesen hat, bevor er angreift, sondern viel wichtiger ist es, technologisch reagieren zu können, statt zu versuchen, sich anders zu schützen.

Das andere Problem ist das Missverhältnis zwischen Regulierung und nicht existierenden international erfolgreichen Technologieanbietern made in Europe. Das hat mittlerweile schon eine 30-jährige Misserfolgsgeschichte, und solche strategischen Nachteile gehen leider sicher nicht über Nacht weg, obwohl das genau in der heutigen volatilen Welt sehr, sehr wichtig wäre.

Nun hilft es aber wenig, den Kopf in den Sand zu stecken; in irgendeiner Form muss man es hierzulande schaffen, den aktuellen Wohlstand für die zukünftigen Generationen zu festigen. Das: Das haben wir schon immer so gemacht!, und: Das war schon immer so!, muss aussterben – und stirbt auch merklich in österreichischen Unternehmen aus.

Es ist wichtig für das ganze Unternehmen, aber auch für den Standort, zum Gestalten überzugehen, Technologieunternehmertum weit über das, wie es jetzt ist, durch Investments und Kooperationen zu fördern, spürbare Veränderungen im eigenen Arbeitsumfeld zuzulassen und aktiv zu fördern. – Das ist der erste Schritt, den es braucht und der gegangen werden muss. Der zweite ist, nicht nur ausländische Technologien zu nutzen, sondern eigene europäische und international wettbewerbsfähige Technologieunternehmen aufzubauen.

Der finanzielle Erfolg, der Aufbau der Expertenkompetenz, das sich entwickelnde Ökosystem und eine zurückgewonnene Autonomie sowie die Fähigkeit zum Gestalten in dieser so wichtigen KI-Welt sind das, worum es geht und was auf dem Spiel steht. Das zu schaffen ist tatsächlich extrem harte Arbeit, es erfordert Offenheit, Mut, Willen, Kooperationen und sicher noch vieles mehr.

Da bekanntlich von nichts auch nichts kommt, steht allem voran der Appell und fast schon der Alarm, dass es wirtschaftlich sehr erfolgreiche Orte auf dieser Welt gibt, in denen sich Unternehmenslenker 80 Prozent ihrer Zeit mit KI beschäftigen, also quasi ausschließlich, während hierzulande noch business as usual gelebt wird. Die Problemerkenntnis setzt sich sukzessive durch, nun geht es aber darum, bei der Geschwindigkeit zuzulegen, auf der Lernkurve vorwärts zu kommen, starke Wettbewerbsvorteile aufzubauen und damit Wohlstand nicht nur zu sichern, sondern auszubauen.

Schlussendlich braucht nicht nur jedes österreichische Unternehmen einen KI-Masterplan, sondern auch die richtige Einstellung und die tatsächlichen Fähigkeiten, diesen zur Umsetzung zu bringen. – Vielen lieben Dank. (Beifall.)

Günther Mayr: Vielen Dank, Isabell Claus, für diesen Befund, könnte man sagen.

Ja, das Wort Alarm ist glaube ich durchaus angebracht, wenn man hört, dass dort 80 Prozent der Zeit für KI aufgewendet wird und in Deutschland 10. Man weiß dann ungefähr, wie die Entwicklung sein könnte, denn eines ist auch klar: Wenn es sich schnell entwickelt, dann entwickelt es sich auch immer noch schneller durch die KI, weil ja genau die das Tempo noch einmal steigert, und wenn man da hintennach ist, dann ist es, glaube ich, wahnsinnig schwierig, das aufzuholen.

Auch das Prinzip: Das haben wir immer so gemacht!, das glaube ich in Österreich doch noch immer wieder anzutreffen ist, ist eines, das jetzt wirklich schön langsam, aber sicher der Vergangenheit angehören muss. Unternehmen, die diesem Gedanken noch nachhängen, werden es wahrscheinlich wirklich schwierig haben, auch ihre Mitarbeiter Richtung KI weiterzubringen, denn sie spielt mittlerweile in geringste Anwendungen und in alle Bereiche eines Unternehmens hinein.

Das ist natürlich auch immer eine Frage der juristischen Umsetzung. Unsere nächste Referentin ist eine, die sowohl die juristischen Aspekte als auch die technischen Aspekte dieser ganzen KI-Debatte gelernt hat und sich damit sehr stark auseinandersetzt, wie auch mit den Auswirkungen – wir haben das hier schon einmal in einem Forum diskutiert – auf eine Medienlandschaft, auf eine Medienwirtschaft: Was macht das denn dort, auch zum Beispiel, dass Google die Inhalte liefert oder eigentlich nimmt und dann wiedergibt, und was ist dann mit den Medien, die übrig bleiben?, also Medienwirtschaft und Demokratie im Zeitalter der künstlichen Intelligenz, wenn man sie so nennen will, zwischen Chancen und Herausforderungen.

Wir haben heute schon viel gehört über Chancen, über Gefahren, über Herausforderungen. – Ich bitte Jeannette Gorzala um ihre Ausführungen zu diesem Thema. (Beifall.)

Jeannette Gorzala (KI-Expertin, Rechtsanwältin und Partnerin go_legal attorneys at law sowie Gründerin der Act.AI.Now-Initiative für KI-Literacy): Es ist mir eine große Freude, an meine exzellenten Vorrednerinnen und meinen Vorredner anzuschließen und heute ein bisschen das Thema Medienwirtschaft und Demokratie im Zeitalter der künstlichen Intelligenz zu beleuchten – der Titel gibt es schon vor –: Zwischen Chancen und Herausforderungen.

Ich bin Rechtsanwältin, beschäftige mich mit dem Thema künstliche Intelligenz an der Schnittstelle von Wirtschaftsrecht und Regulatorik nicht erst seit Chat-GPT, sondern schon seit 15 Jahren. Wir begleiten Unternehmen bei diesem Transformationsprozess, beim Aufbau von Know-how und dabei, das Thema und die Technologie in die Unternehmen hineinzutragen. (Die Rednerin unterstützt in der Folge ihre Ausführungen mittels einer Powerpoint-Präsentation.)

Heute ist eben der Fokus auf der Medienwirtschaft, wo natürlich künstliche Intelligenz Chancen hat in der verbesserten Entscheidungsfindung – wir haben schon von Recommendersystemen gehört –, in der Verbesserung von Empfehlungen, natürlich auch bei der Interaktion – wir arbeiten mit diesen Tools ganz anders als in der Vergangenheit: Sie prompten und bitten das Tool, ein Bild zu generieren, einen Text zu generieren; Sie geben ihrem KI-Roboter künftig auch Audioanweisungen und interagieren mit ihm fast wie mit einem Menschen –, und natürlich gibt es die Möglichkeit von Effizienzsteigerungen in Unternehmen.

Doch dort, wo Chancen sind, sind natürlich auch Risiken, und gerade im Medienbereich gibt es das Thema Desinformation, das Thema Betrug mittels KI-Technologien und auch das Thema Vertrauensverlust, Bruch von Vertrauen, das extreme, immens negative Auswirkungen auf unsere Demokratie hat. Zwischen Chancen und Risiken sind natürlich Potenziale, und quasi dort, wenn wir das synchronisieren, können wir im KI-Zeitalter natürlich viel erreichen.

Ich möchte mit den Chancen anfangen und der Frage: Wie viele von Ihnen haben vielleicht schon mit diesen Tools experimentiert, ein paar Texte generiert, ein paar Bilder? Es ist fantastisch! Sie sehen, das Thema KI, insbesondere generative KI, betrifft alle Medienformen. Das, was früher Stunden oder Tage gedauert hat, können Sie jetzt in wenigen Minuten oder maximal 1 Stunde erledigen: von der generierten Pressemitteilung bis hin zum Bericht über einen Wahlkampf zum Beispiel; oder Sie können Bilder generieren, Kampagnen generieren. Sie können mittlerweile schon künstliche Stimmen generieren, Ihre eigene Stimme synthetisieren, und auch im Videobereich sehen wir extrem viele Anwendungsfelder, neue Tools, die die Filmindustrie revolutionieren.

Ich möchte das hier gar nicht lang und breit ausführen, denn wir haben schon sehr, sehr viel über die Potenziale gehört; ganz kurz möchte ich das Thema Film und Video herausgreifen, denn Sie sehen hier – beeindruckend! –: In 6 Minuten haben Sie ein 100-Seiten-plus-Skript analysiert. Sie können mittlerweile vorhersagen, welches Skript welches Potenzial hat, welche Möglichkeit des Kinoerfolges, Sie können Schauspieler, Schauspielerinnen nach Marktwerten bewerten und da riesige Datenbanken aufbauen mit wirklich, wirklich beeindruckender Treffergenauigkeit dieser Vorhersagen von mehr als 80 Prozent.

Das neueste Tool von Open-AI Sora – wir haben heute ja schon oft den CEO sprechen gehört –: Sie können damit mittels Text mehrminütige Videosequenzen direkt generieren; noch keine ganzen mehrstündigen Filme, aber die Resultate sind natürlich beeindruckend.

KI-Einsatz findet schon seit Langem statt – Disney zum Beispiel setzt Technologie ein, um im Nachhinein Expressionen feiner zu machen, besser zu machen; Sie können Schauspieler und Schauspielerinnen verjüngen oder älter machen –, auch im Bereich Audio, wo Sie zum Beispiel automatisiert eine ganze Videountermalung machen können; Sie können Brad Pitt Chinesisch sprechen lassen.

Sie können die Stimmen von Édith Piaf bis zu Falco künstlich nachgenerieren. Das macht zum Beispiel Ircam. Das sind diejenigen, die beim Centre Georges Pompidou die ganzen Audiothemen betreuen. Sie sehen, es ist extrem viel möglich, bis hin zum Thema Distribution und Marketing, wo Sie vielleicht den einen Film gesehen haben und Ihnen die andere Serie als Präferenz vorgeschlagen wird und jeder von uns auch ein personalisiertes Bild, je nachdem, was er in der Vergangenheit gesehen hat, nach seinen Präferenzen angezeigt bekommt.

Das heißt, das Thema generative KI betrifft einmal alle Sorten von Medien, vom Text bis Video, und den gesamten Zyklus von der Produktion, Postproduktion bis zur Distribution und Marketing, was natürlich großartige Chancen birgt. Sie können Bilder sprechen lassen, Gustav Klimt zum Beispiel, Sie können auch virtuelle Welten generieren, personalisierte Spielerfolge, das Ganze vielleicht auch mit Brillen zu einem immersiven Erlebnis machen. Das heißt, KI birgt für die Medienwelt sehr, sehr große Chancen, neue Produkte, neue Dienstleistungen zu erfinden und für Medienkonsumenten zugänglich zu machen und natürlich auch Effizienzen zu heben.

Natürlich gibt es extrem viele Chancen, doch dort, wo Chancen sind – das haben wir heute auch schon gehört –, gibt es natürlich auch die Risiken, nämlich insbesondere Desinformation, Betrug und dadurch Vertrauensverlust, auch Verlust von Vertrauen in demokratische Werte.

Ich habe Ihnen hier ein paar Statistiken zum Thema Deepfake mitgebracht. Die Statistiken sind beeindruckend negativ. Sie sehen, 2023 gab es ungefähr schon 100 000 Deepfakevideos im Netz, das ist ein Anstieg von 550 Prozent im Vergleich zu 2019. Das ist eine englischsprachige Folie, das heißt, es sind nicht 3,000 Prozent, sondern ein Anstieg von 3 000 Prozent bei Betrugsversuchen mit Support von generativer KI. Das Ganze kostet nicht viel und ist relativ schnell. Sie können in unter 25 Minuten für 0 Dollar aus einem Standbild ein mehrsekündiges Video drehen und mit dem dann quasi im Netz Schaden anrichten.

Das ist zum Beispiel ein Deepfake, das ging um die Welt: der Papst in der weißen Daunenjacke. Welche Gefahr geht von diesem Bild aus? – Relativ wenig. Es ist vielleicht interessant zu beobachten, vielleicht eine Marketingkampagne, aber wir sind jetzt im Superwahljahr, es wird überall gewählt, und mit Deepfakes, nämlich künstlich generierten Bildern zur Irreführung von Bürgern und Bürgerinnen, Medienkonsumenten und -konsumentinnen, kann man relativ viel Schaden anrichten.

Sie sehen hier zum Beispiel künstlich generierte Videos zur Irreführung im US-Wahlkampf. Lassen Sie sich nicht von der Beschilderung täuschen: Alle Bilder sind unecht! In Argentinien zum Beispiel: die ersten Wahlen im Zeitalter von generative AI. Der Wahlkampf in Argentinien hat schon stattgefunden, und auch da haben wir gesehen, dass generative AI von beiden Kandidaten, von beiden Parteien eingesetzt wurde, einerseits zur Diffamierung jeweils der anderen Partei, zur Verbreitung von Fakenews, um so natürlich Einfluss auf das Wahlergebnis zu nehmen.

Hier näher bei uns, in der Slowakei, haben im September 2023 Wahlen stattgefunden, und auch da wurde zum Beispiel mittels Audio eine relativ fragwürdige Nachricht im Zusammenhang mit der Ukrainekrise in Bezug auf einen Kandidaten verbreitet – zwei Tage vor dem Gang zur Urne. Was ist das Problem? – Dieses Video beziehungsweise dieses Audio wurde hunderttausendfach im Netz verbreitet, und es gibt ein 48-Stunden-Moratorium vor dem Wahltag. Das heißt, da dürfen dann keine Medien- und Presseaussendungen der Parteien mehr stattfinden. Jetzt war es relativ schwer, dieses Video dann wieder quasi richtigzustellen, und es hatte natürlich einen massiven Impact auf die Wahlen dort.

Ich bin Juristin, ich muss ein bisschen über Regulatorik reden. Ich habe Ihnen hier das Deckblatt vom AI-Act mitgebracht, dessen Erstentwurf im April 2021 vorgelegt wurde und der aus den KI-Ethikleitlinien entstanden ist. Ich werde es relativ kurz halten und Ihnen quasi alle Ausführungen dazu ersparen. Eingehen möchte ich aber auf die Transparenzpflichten für die Medienindustrie, um eben der Verbreitung von Deepfakes und Fakenachrichten und all diesen negativen Konsequenzen Einhalt zu gebieten.

Es wird zum ersten Mal im AI-Act auch definiert, was ein Deepfake ist, nämlich ein mittels KI generiertes oder manipuliertes Bild, eine Audiodatei, ein Video, das geeignet ist, echt zu wirken und Menschen in die Irre zu führen. Der AI-Act enthält auch Transparenzpflichten, das heißt dort Informationspflichten, wo Menschen mit einer Maschine interagieren, außer es geht aus dem Kontext klar hervor.

Gut, da wird jetzt der klassische Chatbot, ein klassisches Chatfenster nicht so das große Problem darstellen, aber Sie sehen, im Internet gibt es schon künstlich generierte Menschen, und die Technologie ist schon so gut, dass Sie wahrscheinlich gar nicht auf die Idee kommen würden, dass das keine echte Person ist. Es ist aber ein künstlicher Avatar mit einem Eigenleben und hat Millionen Follower. Auch hier: Diese Person existiert nicht, es ist ein künstlich generierter Avatar, der vielleicht auch künftig mit Ihnen sprechen kann. Das heißt, Transparenz- und Kennzeichnungspflichten sind sehr, sehr wichtig.

Auch künstlich generierte Inhalte müssen gekennzeichnet werden, außer natürlich dort, wo es einen artistischen Zweck gibt und das auf eine Art und Weise geschieht, in der das Werk nicht beeinträchtigt wird, natürlich um diese ganzen immersiven Technologien zu schützen, weil: Wenn Sie etwas generieren, wäre es extrem hinderlich, wenn Sie bei jeder Figur in einem künstlichen Film, Minions zum Beispiel, hinschreiben müssten: künstlich generiert, künstlich generiert, künstlich generiert. Das heißt, da gibt es wieder Ausnahmen für die Medien.

Es gibt die Verpflichtung für diese Toolanbieter, künstlich generierte Inhalte auch maschinenlesbar zu kennzeichnen, dass man das Original von einer – unter Anführungszeichen – „Fälschung“ unterscheiden kann, weil die Technologie mittlerweile so gut ist, dass Sie es mit freiem Auge fast nicht mehr feststellen können. Bei den Videos können Sie es vielleicht an den Händen erkennen, manchmal haben die Figuren sechs, sieben Finger, aber bei den Bildern ist es schwierig. Da gibt es wieder einige Ausnahmen: dort, wo es zu keiner tiefgreifenden Veränderung kommt.

Da stellt sich natürlich auch die Frage, ob man dieses Watermarking, das heißt diese maschinelle Kennzeichnung, mit der gleichen Technologie nicht auch wieder rausnehmen kann. Das heißt, es gibt da sehr, sehr viele Schwierigkeiten. Beim Text gibt es eine grundsätzliche Kennzeichnungspflicht, außer es gibt die redaktionelle Kontrolle.

Sie sehen in meinem Vortrag: Es gibt überall eine Regel mit einer Ausnahme, das heißt extrem viel Verwirrung bei den Konsumenten, aber auch in der Medienindustrie, wie man das jetzt richtig machen sollte. Das heißt, es gibt da einen dringenden Bedarf an Klarheit.

Wir haben auch von KI- und Medien-Know-how gehört. Es gibt regelmäßig den Medienkompetenzbericht der RTR, und es ist extrem wichtig, gerade in dieser Zeit, in diesem Zeitalter, im Unternehmen, aber auch als Privatperson, als Bürger und Bürgerin Wissen im Umgang mit KI, Wissen im Umgang mit dem Output aufzubauen, um sich eben vor negativen Konsequenzen zu schützen und verantwortungsvoll mit dieser Technologie umzugehen.

Sie sehen hier: Im Bereich Medienkompetenz stehen wir bei manchen Sachen relativ gut da; diese Studie ist noch ohne KI, das heißt, da haben wir noch einiges aufzuholen, es ist aber ein extrem wichtiges Instrument, insbesondere im Zusammenhang oder an der Schnittstelle zwischen KI und Demokratie und Medienwirtschaft. Das ist ein Experiment des „Standard“ gewesen. Das ist auch sehr, sehr lustig und Sie sehen, dass diese KI-Tools beeindruckende Ergebnisse liefern, aber ab und zu den Kontext nicht richtig treffen. Das sollen Maorikrieger sein – es könnte das Zillertal sein, also relativ schwierig.

Oder KI-Prompt: Erstellen Sie mir einen Wikinger! Sie sehen, die Tools sind relativ gut, im Kontext ist noch sehr, sehr viel Aufholbedarf und es stellt sich natürlich auch die Frage – das wurde auch schon angesprochen – AI made in Europe, weil alle großen Plattformen, alle großen Tools natürlich nicht in Europa entwickelt wurden, sondern Tools sind, die im Wesentlichen aus den USA oder aus China kommen und natürlich eine ganz andere Vorstellung von einem Wikinger oder einem Maorikrieger haben. Das heißt, um auch diese Herausforderung zu bewältigen, brauchen wir vielleicht eigene Tools made in Europe mit europäischen Werten.

Um das Ganze jetzt von der Risikodiskussion zurückzubringen zu den Chancen: KI birgt großartige Chancen und Potenziale, wie wir gesehen haben, in der Medienwirtschaft, kann neue Formen der Medien entstehen lassen, personalisierten Medienkonsum, Interaktion natürlich, und Effizienzen heben.

Um diese Chancen und Potenziale aber wirklich vollumfänglich einlösen zu können, müssen wir zuerst unsere Hausaufgaben machen und insbesondere die Herausforderungen der Transparenz, der Medienkompetenz und KI-Kompetenz lösen, nämlich nicht nur in Unternehmen, sondern in der Breite der Bevölkerung, und uns auch die Frage stellen, ob es nicht eigens entwickelte Modelle aus Europa braucht.

Wenn wir diese Hausaufgaben lösen, kann, glaube ich, KI wirklich großartige Potenziale für die Medienindustrie und Medienwirtschaft und auch Pluralismus bedeuten und sogar Kreativität demokratisieren, indem jeder von uns Medien eigentlich selbst erzeugen kann. – Danke für Ihre Aufmerksamkeit. (Beifall.)

Günther Mayr: Vielen Dank, Frau Gorzala.

Ja, das ist diese neue Welt. Das ist auch etwas, das wir immer wieder einmal im ORF hören: Warum zeigt ihr das nicht? Es ist überall im Internet! – Wir wissen schon, warum wir es nicht zeigen, weil es nämlich unter Umständen ein Fake ist. Es ist für uns genauso eine immer größer und immer schwieriger werdende Aufgabe, herauszufinden, was jetzt wirklich gefälscht ist. Wie Sie es mit den Watermarks angesprochen haben: Das ist ja alles eine Technologie, die man kennt und auch wieder aushebeln kann.

Das ist wirklich ein sehr, sehr schwieriges Gebiet, vor allem für die Medien: hier bestehen zu können und nicht selbst zum Opfer von Deepfakes zu werden. Erkennbar ist es, wie Sie gesagt haben, in vielen Bereichen nur noch ganz, ganz schwer, man kann es nur noch mit sehr, sehr aufwendiger Recherche feststellen. Hier müssen wir zu einem Modell kommen, wo wir auch so etwas wie eine Trademark entwickeln, aber das ist denkbar schwierig, nachdem das eben in anderen Ländern so rasant vorangeht.

All diese Themen würden wir jetzt gerne in einer Podiumsdiskussion noch ganz kurz besprechen. Ich darf die Keynotespeaker auf die Bühne bitten. Danach gibt es natürlich auch die Gelegenheit für Sie, Fragen an unsere Expertinnen und Experten zu stellen.

Frau Georgieva, ich würde gerne mit Ihnen beginnen. Wir haben jetzt gehört, es ist doch alles sehr amerikanisch getrieben. Google ist bekanntermaßen ein amerikanischer Konzern, der natürlich auch in Irland seinen Sitz hat. Glauben Sie auch, dass es so etwas wie ein europäisches Modell geben sollte? Wäre Google hier auch dafür?

Ludmila Georgieva: Wir als Google haben erstens in Europa eine sehr große Präsenz. Wir haben nur in Irland, weil Sie das angesprochen haben, über 10 000 Beschäftigte. Wir haben in Deutschland über 4 000 Beschäftigte. Es ist einfach tatsächlich so, dass auch in Deutschland und auch in Zürich in der Schweiz sehr viele dieser KI-Technologien entwickelt werden. Es ist tatsächlich so, dass europäische Engineers daran arbeiten, dass es auch in Europa entsteht und auch tatsächlich europäische Standards erfüllt. Und wenn man sich ein bisschen unsere Kultur anschaut: Google ist eigentlich auch ein zutiefst europäisches Unternehmen im Hinblick auf Werteeinstellungen, im Hinblick auf das Demokratieverständnis.

Günther Mayr: Frau Gorzala, ist das für Sie so als Antwort befriedigend: Passiert ja eh alles in Europa!?

Jeannette Gorzala: Da, wo wir die Herausforderungen sehen: Das ist zum Beispiel, wenn wir uns seltene Sprachen hernehmen. Da gibt es quasi Schwierigkeiten, weil es da natürlich nicht so viele Daten gibt. Das Gleiche ist bei den Bildern. Wir haben das ja auch bei anderen Bildern gesehen, die generiert wurden, die in der Epoche vom 16. Jahrhundert Könige aus anderen Backgrounds - - und so weiter und so fort.

Also ich glaube schon, dass es mehr Entwicklung in Europa braucht, auch wenn Google natürlich ein großer Player ist und, wie ich glaube, das Researchcenter auch in der Schweiz steht und viele europäische Engineers daran arbeiten. Was ich glaube, ist, dass es aber mehr Diversität braucht. Aktuell gibt es drei, vier große Anbieter, die wir, glaube ich, alle kennen: Open-AI, Google, Mistral, das sehr viel Open Source macht, und Anthropic – de facto ein Oligopol. Ich glaube, mehr Diversität und mehr spezialisierte Modelle würden dem Markt sehr, sehr guttun, damit man dieses Potenzial auch besser nutzen kann.

Du hast es, glaube ich, gesagt, Isabell, dass wir in Europa quasi 30 Jahre lang diesen Zug ein bisschen verschlafen haben. Ich glaube, wir müssen da ins Doing kommen und nicht nur regulieren und Standards vorgeben, sondern auch wirklich diese Technologien entwickeln und da als Technologieplayer mitspielen, anstatt nur die Rahmenbedingungen dafür zu gestalten.

Günther Mayr: Ich glaube, Sie sind angesprochen.

Isabell Claus: Ich glaube, die fachliche Kompetenz in Europa ist riesengroß; also auch auf der Researchseite sind wir einfach gut. Ich glaube schon, dass wir dieses Potenzial in die Wirtschaft transferieren müssen, und zwar so, dass die Firmen auch mit Headquarters in Europa sitzen, weil es ganz wichtig ist, wer wo die Steuern zahlt und wer wo am Ende des Tages auch mehr als 10 000 Drops ausmacht, nämlich ein ganzes Ökosystem rundherum und einen ganz langfristigen Input in die ganze Entwicklung, wie es denn weitergeht.

Ich glaube, wir haben viele industrielle Wellen gehabt, die wir in Europa aufgrund des hohen humanen Potenzials sehr, sehr mitgestaltet haben. Wir können uns da nicht rausnehmen. Da geht es eben auch noch um ganz andere Dinge als Arbeitsplätze, da geht es halt um Werte. Wirklich unterschiedliche Werte gibt es, glaube ich, schon zwischen der amerikanischen Kultur und der europäischen. Man muss kooperieren, ganz klar, das ist überhaupt keine Frage, und man muss zusammenarbeiten – und alles wunderbar. Ich glaube aber, nicht in so einem großen Markt mitzuspielen, kein Headquarter in Europa zu haben, ist eine große Gefahr.

Günther Mayr: Herr Post, theoretisch wissen wir ja, wie es geht, aber wie kommen wir in die Gänge?

Tristan Post: Also ich glaube, zwei Sachen sind wichtig, wenn wir über Europa nachdenken – so ein bisschen, was wir auch in der Start-up-Welt sehen –: Wo liegt eigentlich unser Competitive Advantage, also was können wir besser? Warum sollten wir zum Beispiel die Sprachmodelle entwickeln und welche Sprachmodelle sollten wir entwickeln?

Ich kriege das nämlich gerade mit. Ich wohne in München und arbeite da auch sehr stark mit Bayern zusammen. Die wollen jetzt gerade in der Forschung irgendwie ein Bayern-GPT aufbauen. Da wird unglaublich viel Geld in die Entwicklung von einem Sprachmodell gesetzt, das es wahrscheinlich nie in die Wirtschaft schaffen wird.

Wir müssen überlegen, welche Arten von Modellen wichtig sind, die wir in Europa bauen. In der deutschen Sprache gibt es relativ viel Text, deswegen sind diese Modelle, die man in den deutschen Sprachen hat, auch sehr performant. Ich meine, du hast es gesagt, gerade bei diesen Sprachen, die weniger geeignet sind oder die einfach weniger Leute sprechen, macht es sehr viel Sinn, eigene Sprachmodelle zu entwickeln. Jetzt sind wir aber hier natürlich im deutschsprachigen Bereich.

Eine Sache, wo wir natürlich etwas haben, das andere nicht haben, ist: Wir haben zum Beispiel Daten, die man nicht so einfach nachstellen kann. Im medizinischen Bereich haben wir zum Beispiel unglaublich viele deutschsprachige Daten, an die große Unternehmen nicht rankommen, und wenn es darum geht, unsere eigenen Sprachmodelle zu entwickeln, macht das viel mehr Sinn, auch gerade in diesen Bereichen spezialisierte Modelle zu entwickeln, wo wir eine Datenhoheit haben, wo andere Unternehmen nicht mehr rankommen.

Die zweite große Herausforderung ist jetzt nicht gerade national, sondern eher: Wie können Unternehmen davon profitieren? – Die große Herausforderung wird es nämlich sein, diese Sprachmodelle zu nehmen, die sehr allgemein und auf unsere Sprache trainiert sind, und sie auf die ganze Information und das Know-how eines Unternehmens feinzutunen. Vor allem davon kann man profitieren und das muss man auch machen. Ich glaube, da müssen wir viel stärker arbeiten und auch Know-how aufbauen, was es heißt und was die Chancen sein können, wirklich so ein Sprachmodell zu nehmen und für ein einziges Unternehmen umzustellen und damit auch dem Unternehmen extrem viel Vorsprung zu geben.

Günther Mayr: Frau Georgieva, jetzt wird ja Google hin und wieder vorgeworfen, der große Datenkrake zu sein, der alles absaugt, zusammensammelt, das dann teuer verkauft und vielleicht noch Werbung schaltet. Wie begegnen Sie dem?

Ludmila Georgieva: Erstens: Wenn ich das Wort Datenkrake höre, sage ich immer: Ich gebe Ihnen 10 Euro, wenn Sie mir einen neuen Schmäh erzählen würden!, weil das tatsächlich etwas ist, womit wir sehr - -

Günther Mayr: Den Begriff habe ich sogar in Google gefunden.

Ludmila Georgieva: Ja, also wir sind ein offenes System, wie Sie sehen, und sind auch sehr selbstkritisch. Aber in der Tat: Wir verkaufen keine Daten; ich glaube, das muss man auch hier ganz klar festhalten. Wir verkaufen keine Daten.

Es geht einfach darum, zu verstehen, wie das Internet funktioniert. Man hat sich vor Jahrzehnten entschlossen, zu sagen, das Internet ist frei, offen und zugänglich für alle. Das muss aber finanziert werden. Es wird von der Werbebranche finanziert. Wenn Sie eine Zeitschrift kaufen, haben Sie – analog dazu – auch Werbung drinnen, die müssen Sie sich beim Durchblättern anschauen. Ich glaube, diese Tatsache wird in dem Sinne - - Wenn wir die Zustimmung nicht haben, verkaufen wir die Daten nicht.

Was mir ganz wichtig ist: Wir versuchen tatsächlich auch, uns als Google hier weiterzuentwickeln und beim Thema Daten, beim Thema personenbezogene Daten eben auch die Werbebranche mitzunehmen, zum Beispiel indem wir unsere Engineering Power in sogenannte Privacy-Enhancing Technologies investieren und das voranbringen, um zu sagen, wir stellen der Werbebranche neue Technologien zur Verfügung, sogenannte Privacy-Enhancing Technologies, die zwar Insights generieren, aber untereinander nicht mehr personenbezogene Daten austauschen – so etwas verstehen wir unter offenem Internet.

Ich würde sagen, ich würde Sie ein bisschen challengen: Kommen Sie mir mit einer neuen Frage!, also dann würde ich - -

Günther Mayr: Ich glaube, dass das eine Frage ist, die Sie noch lange beschäftigen wird. Darum stelle ich sie auch stellvertretend für die da draußen; also es war jetzt kein persönlicher Angriff.

Ludmila Georgieva: Nein, nein, ich nehme es nicht persönlich. Ich finde nur, wir sind eigentlich eines der wenigen Unternehmen, die wirklich wahnsinnig viele Datensets veröffentlichen. Wir veröffentlichen wahnsinnig viele Transparenzberichte, versuchen wirklich to stick to den Buchstaben des Rechts, weil wir einfach daran glauben: Es bringt uns nichts, wenn uns die User und Userinnen nicht vertrauen. Wir bauen auf ihr Vertrauen auf, und wenn sie uns nicht vertrauen, können wir unser Geschäftsmodell natürlich nicht aufbauen. Dementsprechend sind wir auch sehr bemüht, sehr behutsam damit umzugehen.

Tristan Post: Und um da vielleicht auch noch ein bisschen einzuspringen und auch zu helfen und um es nicht immer so negativ zu sagen: Ich meine, ich bin jetzt auch schon länger im Bereich KI und ich fand und finde auch, was Google gemacht hat – ihr habt ja schon sehr lange vor dem AI-Act solche Responsible-AI-Faktlisten herausgebracht und euch überlegt, wie man zum Beispiel mit Modelcards mit solchen Algorithmen arbeiten und das auch verständlich machen kann, wie die Leute das nutzen –, was passiert, ist sehr cool. Klar, es passieren halt immer wieder Fehler auf dem Weg. Das ist eine Journey, die man zusammen geht. Man kann nicht immer von Anfang an perfekt sein, das muss man halt verstehen. Dies einfach nur, um noch einmal ein bisschen positiv zu bestärken. (Heiterkeit des Redners.)

Ludmila Georgieva: Danke schön. Wir haben uns vorher nicht gekannt, muss man festhalten.

Günther Mayr: Alles okay, es ist kein Problem, wenn Ihnen Herr Post beispringt.

Regulative – ist das etwas, zu dem man aus juristischer Sicht sagt, man braucht das doch da und dort? Das ist etwas, das Sie mit dem AI-Act angesprochen haben. Natürlich findet man bei Google Hervorragendes und sehr schnell und sehr effizient, aber da stellt sich eben die Frage: Was ist, wenn das wieder Deepfake ist?, und so weiter. Ich weiß, Sie machen da auch viel, aber - -

Ludmila Georgieva: Ich kann gerne anfangen und auflisten, was wir zum Thema Deepfake machen.

Günther Mayr: Gerne, später. Ich würde jetzt gerne zu den juristischen Aspekten davon kommen, wenn Sie diese kurz erläutern könnten. Es gibt ja deswegen diesen AI-Act, und es ist natürlich denkbar schwierig, das auch zwischen den Ländern abzugleichen.

Jeannette Gorzala: Absolut. Ich darf da vielleicht noch einen Schritt zu den Ethikleitlinien aus 2018 zurückgehen. Wir haben ja schon seit 2018 Prinzipien für vertrauenswürdige künstliche Intelligenz, dafür, wie man mit diesen Systemen umgehen sollte. Nur, diese Leitlinien waren eben nicht rechtlich verbindlich, das waren eben quasi freiwillige Compliancemaßnahmen. Auch nach 2018 haben wir trotz dieser freiwilligen Leitlinien sehr, sehr große Schadensfälle mit KI gesehen, nämlich wirklich Personen, die zutiefst getroffen wurden, große Schäden, finanzielle Schäden und so weiter und so fort.

Aus dieser Notwendigkeit, dass sich eben nicht jeder an freiwillige Empfehlungen hält oder proaktiv Best Practices implementiert, kam dann der Vorstoß des AI-Acts als harmonisiertes, verbindliches gesetzliches Regelwerk für KI-Systeme in der Europäischen Union. Das heißt, der AI-Act, der Gesetzgebungsprozess wird wahrscheinlich in den nächsten zwei, drei Monaten abgeschlossen sein, und dann wird dieser Rechtsakt über die nächsten zwei Jahre in Kraft treten. Er ist im Wesentlichen ein Produktsicherheitsrecht für KI-Systeme, das heißt, er bestimmt, wie diese KI-Systeme gestaltet werden müssen, um in bestimmten sensiblen Bereichen vertrauenswürdig zu sein. Insbesondere für das Thema KI/Medien gibt es Transparenzpflichten, Kennzeichnungspflichten zum Aufbau von Vertrauen, zur Vermeidung von Desinformation und um dieses Thema dort quasi einzudämmen.

Günther Mayr: Es ist schnell sehr viel Schaden angerichtet, Frau Claus, und Sie sind ja eine, die den Unternehmen hilft, Informationen zu sammeln. Stößt man da auch auf solche Probleme?

Isabell Claus: Man muss das immer relativ, auch je nach Einsatzgebiet sehen. Die wenigsten Tools und Möglichkeiten richten tatsächlich Schaden an, sondern sind sehr, sehr hilfreich, und die sind auch in der Risikomatrix des AI-Acts quasi auch woanders angesiedelt. Ich sehe in der ganzen europäischen Regulierung ein bisschen das Problem, dass man in der Diskussion über dieses Thema Regulierung immer sehr, sehr schnell bei Begriffen wie Vorsicht, Risiken stoppen, Hände weg und, und, und ist.

Die Chancen laufen uns davon, der Umsatz läuft uns davon, die Innovationskraft wird gehindert, weil: Wer traut sich als Unternehmer, Unternehmerin da tatsächlich hinein? Sie weiß nämlich gar nicht, wie risikoreich das Ganze jetzt ist, wie das noch in Zukunft sein wird. Also ich sehe das halt immer aus der unternehmerischen Perspektive: in diesem Markt ist Größe alles. Da gehen Entwicklungen schneller, da gehen Produktvermarktungen schneller und da verlieren wir immens und haben über die letzten Jahrzehnte schon zu viel verloren.

Ich habe übrigens im Cybersecuritybereich – wir haben damals, 2011, die erste Firma gegründet, 2012 kam Snowden; das war unser großer Wachstumsschub, weil da plötzlich für alle doch ein paar kulturelle Unterschiede zwischen den USA und Europa spürbar waren; und der Punkt ist, dass damals auch die DSGVO ein Thema war, und wir alle gedacht haben, super, für Security wird uns das sicher helfen, das ist ein super Argument – nie einen Cent Business damit gemacht, nie! Also das schminke auch ich mir ab, dass man daraus quasi wirklich irgendwie auch an Größe gewinnen kann. Dieses Hinderungselement, das sehe ich halt als etwas Kritisches. Ansonsten braucht man das in ganz starken Risikobereichen – da bin ich voll dabei – nicht auszuschließen, aber bitte nicht die Innovation stoppen und die möglichen Umsätze hindern!

Jeannette Gorzala: Dazu muss ich nur eine Sache sagen, weil ich das relativ oft diskutiere: Den AI-Act gibt es heute ja noch nicht. Der Gesetzgebungsprozess wird in den nächsten zwei, drei Monaten fertig sein. Das heißt, der AI-Act ist nicht das Hemmnis für Innovation, weil der ist nicht einmal in der Welt, der gilt noch nicht einmal.

Was ich als starke Probleme sehe, ist auf der einen Seite das Kulturthema, nämlich tatsächlich ein Ökosystem und eine Innovationskultur zu schaffen. Weil: Wir haben ja das Problem, dass unsere guten Forscher und Forscherinnen eigentlich Europa im Regelfall verlassen, weil sie bei uns nicht entsprechend gefördert werden. Es gibt nicht so eine offene Failurekultur, deswegen wandern die eigentlich ab, was einen riesigen Know-how- und Braindrain bedeutet.

Auf der anderen Seite ist das Thema Investition, nämlich Investition in Infrastruktur, um das einmal entwickeln zu können, und finanzielle Investition in Unternehmen und Start-ups, die diese Technologien entwickeln.

Das sind eigentlich die Punkte, die ich als starken Gap, als starke Vernachlässigung sehe, warum wir da im internationalen Vergleich eben hinterherhinken.

Günther Mayr: Frau Georgieva, wenn es einen multinationalen Konzern gibt, dann sind Sie es. Gibt es da auch Unterschiede in den Ländern, dass man sagt: Da tun wir uns leichter, dort ist es schwieriger?!

Ludmila Georgieva: Ich mache einen Schritt zurück, weil du, Isabell, die DSGVO angesprochen hast. Ich habe die DSGVO in Brüssel für Österreich verhandelt, also ich kenne sie von der anderen Seite. Es ist immer ganz spannend, das zu sehen, wenn man eigentlich aus der Verwaltung heraus dann in ein Großunternehmen kommt, und dann bin ich genau in ein Unternehmen eingetreten, wo eben die Umsetzung gekommen ist. Das fand ich immer sehr spannend, weil danach auch viele Legisten und Legistinnen gesagt haben: Theoretisch haben wir für eine ganz große Branche ganz viel Wachstumspotenzial geschaffen! – Das war es auch und die Branche ist in der Juristerei eh verankert.

Ich finde es immer spannend, weil die DSGVO eigentlich ein relativ robustes Konstrukt ist; man sieht eben, es ist technologieneutral. Unser Ansatz war zumindest damals, dass Österreich – das muss man dazusagen, das wissen auch die wenigsten – im Verhandlungsprozess zur DSGVO eigentlich Nein gesagt hat, weil wir als Österreich gesagt haben, diese DSGVO ist uns nicht stark genug. Ich finde es aber spannend, weil die DSGVO dann mit genau diesem Effekt in aller Munde war, aber auch genau dieses Verständnis für Datenschutz und Privacy geschaffen hat.

Ich glaube, der AI-Act – und wir sehen das natürlich auch als Unternehmen – ist ein Ansatz, ein risikobasierter Ansatz und natürlich ein sehr willkommener Ansatz. Ich glaube, man muss auch die Gratwanderung sehen: Was bezeichne ich als Risiko und High Risk? Diese Bezeichnung, diese Kategorie gibt es im AI-Act. Ich gebe immer ein Beispiel – ich bin über 40, ich brauche immer eine Analogie –, und das ist halt die Frage: Ein Glas oder diese Flasche ist natürlich ein Gefäß für Wasser und so weiter, aber ich kann die Flasche nehmen und – Verzeihung, Tristan – dir eine hauen, und dann ist sie natürlich eine Waffe, hat also auch eine doppelte Nutzbarkeit.

Ich glaube, da muss man sich genau diese Kulturunterschiede – das ist jetzt meine persönliche Meinung – anschauen. Ich glaube, in vielen Bereichen, in vielen Ländern außerhalb von Europa geht man mit einer Freude und mit einer Begeisterung an Innovation heran und man schaut – die Neugier. Ich glaube, in Europa – ich bin Juristin, komme aus der Verwaltung – war sehr viel auch dieser Schutzgedanke gegeben: Wir müssen die Leute schützen!

Da stellt sich die Frage, ob nicht tatsächlich etwas auf dem Weg dann verloren gegangen ist. Ich glaube aber auch, dass Europa, dass man auch nicht jeden Trend sofort mitmachen muss. Und ich glaube, die Fehlerkultur, die du angesprochen hast – diese Kultur des Versagens, dass man sagt, okay, man versagt, man steht auf und macht weiter –, hat sich mittlerweile in Europa sehr gebessert. Ich glaube auch, man hat es verstanden –Investitionen –: Wir als Unternehmen können nur versuchen, auch mit Investitionen, mit verschiedenen Fundings tatsächlich auch ein bisschen diese Community und dieses Ökosystem aufzubauen. Wie gesagt, es gibt Vor- und Nachteile.

Also vielleicht ist man dann im Endeffekt besser gewappnet. Man hat natürlich mit der DSGVO versucht – und wahrscheinlich versucht man das auch mit dem AI-Act –, tatsächlich einen globalen Standard zu schaffen, mit dem natürlich – und diesen transatlantischen Austausch finde ich auch sehr spannend – Europa in Bezug auf die DSGVO und auch Österreich mit maßgeblichen Stakeholdern in Österreich tatsächlich auch global einen Impact schaffen kann.

Wir zum Beispiel, genauso auch in Amerika, sprechen uns schon seit Langem für ein föderales Privacy Law aus. Das scheitert ein bisschen am System, aber es macht tatsächlich Sinn. Etwas, was ich sehr spannend fand, auch für mich ein Learning in der Company: Unternehmen lieben Rechtsklarheit, für Unternehmen ist das Planbarkeit. Das heißt, je eindeutiger und klarer ein Gesetz ist, desto einfacher tun sich dann die Unternehmen, sich darauf einzustellen; je uneindeutiger es ist und je verwaschener es ist, desto schlimmer.

Deswegen: Rechtsklarheit ist sehr willkommen. Es gibt Rahmen, man kann sich darauf einstellen.

Günther Mayr: Herr Post, ich glaube, wir bremsen uns da zum Teil selbst aus.

Tristan Post: Ein paar Sachen über den AI-Act: Ich glaube, erstens müssen wir verstehen: Warum gibt es den AI-Act? – Wir haben gehört, es gibt viele Chancen, aber auch viele Risiken, und was wir minimieren wollen, ist der Schaden, der entsteht. Deswegen ist es per se gut, dass wir es regulieren. Wir regulieren ja auch viele anderen Technologien, wie zum Beispiel das Auto, und es macht ja Sinn, da auch viele Regulationen zu haben.

Beim AI-Act ist es jetzt natürlich gemischt. Ich glaube, es gibt so ein paar Herausforderungen, auch wenn wir es von der Start-up-Seite oder von der Wirtschaftsseite sehen: Klar, es gibt große Unternehmen, die haben große Rechtsabteilungen, für die ist es dann auch einfacher, darauf einzugehen, weil die dann einfach auch das Geld haben, das auch lobbymäßig mitzugestalten. Es gibt immer Wege außen herum, die man gehen kann und wie man Sachen auch umgehen kann; auf jeden Fall haben die viel mehr die Möglichkeiten.

Was heißt das einerseits für - -

Ludmila Georgieva: Ich muss nur ganz kurz unterbrechen. Nur, weil wir als Google irgendwie Ressourcen haben, bedeutet das nicht, dass wir tatsächlich auch gehört werden.

Ich finde es auch ganz spannend: Wenn Google irgendwo im Raum ist, wird oft gesagt: Ihr wollt das wegen des Geldes! Und wir sagen: nein!, denn unsere Kunden sind ja KMUs, aber unsere Kunden haben nicht die Möglichkeit, tatsächlich zu jedem und jeder einzelnen Parlamentarier und Parlamentarierin hinzugehen. – Daher sind wir witzigerweise die Stimme der Klein- und Mittelbetriebe, weil sie unsere Kunden sind, weil sie natürlich in unserem Ökosystem sind, aber nicht diese Power haben. Teilweise muss ich immer sehr vehement dagegen auftreten, weil es so hingestellt wird, als würden wir mit dem Geldkoffer herkommen und dann sagen: Da habt ihr, macht das Gesetz! – Das ist nicht so; und ich glaube, da muss ich wirklich, auch als Juristin und auch im österreichischen Kontext, sehr klar dagegen sagen: Das passiert nicht!

Günther Mayr: Okay. Das Feedback bitte einigermaßen kurz halten.

Tristan Post: Ich meine, es ist ja auch gar nicht negativ gesehen: Lobbyismus kann in beide Richtungen gehen, ob das jetzt positiv oder negativ ist.

Was wir sehen, ist: Wir müssen das so ein bisschen mit anderen Sachen vergleichen. Für Start-ups sehe ich den Vergleich gerade in der Medizintechnikregulierung. Es gibt jetzt eigentlich Unternehmen, die Medizinprodukte in Europa nicht mehr auf den Markt bringen, weil es wegen der Regulatorik zu teuer ist und sich nicht mehr lohnt. Diese haben die Produkte in der USA, aber nicht in Europa, in Deutschland, und wir profitieren nicht davon.

Wir müssen natürlich gucken, dass das Gleiche nicht bei uns und unserer Innovation passiert. Wenn man jetzt viel mit Start-ups spricht: Die große Herausforderung ist, dass vieles wie gesagt nicht ausgearbeitet worden ist – wir haben vorher die Slide mit den ganz vielen Fragezeichen gesehen. Wie kann ich mich darauf vorbereiten? Das gilt einerseits für Start-ups, aber als Unternehmen muss ich mich auch darauf vorbereiten, weil ich jetzt irgendwie ein Inventar über alle KI-Algorithmen führen muss, die ich im Unternehmen habe. Es ist also erst einmal eine Mehrbelastung für viele, weil sie auch nicht wissen, wie man darauf reagieren muss. – Das ist halt die Herausforderung, die man sieht.

Andererseits sehen wir aber, die Frage ist, was wir machen wollen. Wir haben jetzt viel über Deepfakes gehört, was man jetzt auch machen kann: Mit KI kann ich die Stimme klonen – ich könnte die Stimme Ihrer Kinder klonen, könnte Sie anrufen und irgendwie nach Geld fragen –, und es wird immer besser, weil es irgendwann nicht nur die Stimme ist, sondern auch das Gesicht. Glauben Sie wirklich, die Leute, die bereit sind, so etwas zu machen, lassen sich von einem AI-Act aufhalten?

Das ist genauso wie beim Auto: Es gibt Leute, die Schaden zuführen. Auch wenn es irgendwie ein Tempolimit von 60 gibt, es gibt Leute, die schneller fahren; es gibt Leute, die Autos nehmen und damit in Menschenmengen reinfahren. So etwas wird mit der Regulatorik nicht aufgehoben, so etwas wird es nach wie vor geben. Da ist ein AI-Act auch nicht genug, und wir brauchen auch gerade dieses kulturelle Thema und müssen verstehen: Was heißt das für uns und was sind die Gefahren dieser Technologien für uns?

Diese Deepfakes sind für mich eine der größten Herausforderungen, die wir als Gesellschaft haben werden, weil wir davon auch sehr überfordert werden. Das wird auch ein bisschen so: Ich meine alles, was wir gerade haben, ist irgendwie auf Geschichten aufgebaut, und wir können irgendwann die Geschichten nicht mehr glauben, auf denen unsere Systeme aufgebaut sind. – Darin sehe ich die große Herausforderung.

Günther Mayr: Storytelling.

Ich würde jetzt gerne die Diskussion auch fürs Publikum, für Sie, öffnen. Gibt es Fragen? – Ich glaube hier vorne, bitte. Haben wir da ein Mikrofon?

Frage aus dem Plenum: Frau Geschäftsführerin Isabell Claus, Sie haben zwei Zahlen erwähnt: etwas über 100 Millionen ..., dann erwähnten Sie 725 Milliarden, das ist der gesamte US-Markt.

Isabell Claus: Kurz zu den zwei Zahlen: Die erste weiß ich jetzt nicht, habe ich nicht so erwähnt – das ist auch leider noch nicht Realität, sonst hätten wir einen Superplayer in Europa –, aber die zweite Zahl waren die 725 Milliarden Dollar, das ist die Marktgröße in Westeuropa für KI-Umsatz, also: Was machen Unternehmen mit KI alleine in Westeuropa? Das heißt, weltweit ist es noch einmal wesentlich größer.

Günther Mayr: Da hinten bitte.

Frage aus dem Plenum: Ich habe eine Frage zu den Daten zur AI-Nutzung von Unternehmen. Das heißt, dieses Daten – 17 Prozent – kenne ich, glaube ich, schon seit letztem Jahr. Kennt irgendjemand aus der Runde aktuellere Daten? Ich persönlich kann mir nicht vorstellen, dass nur 15 Prozent unserer Leitbetriebe KI verwenden. Das würde mich massiv verwundern.

Ludmila Georgieva: Das ist eine Studie, die wir tatsächlich gefunden haben, aber deswegen würden wir ja gerne für Österreich so eine Studie machen, also hoffentlich im zweiten Halbjahr, weil ich finde, das wäre wichtig.

Ich glaube Accenture hat tatsächlich auch so eine Studie zur digitalen und grünen Transformationen im Allgemeinen gemacht, und da haben sie auch noch einmal mit der Industriellenvereinigung festgehalten, dass Österreich bei der grünen Transformation eigentlich sehr weit vorangeschritten ist, aber bei der digitalen Transformation, bei diesen 15, 20 Prozent, dann auch sehr viel Aufholbedarf ist; und ich kann mir vorstellen, dass das im KI-Bereich noch einmal ein Stück mehr ist.

Ich würde Ihnen da absolut recht geben, auch dass die Entwicklungen extrem schnell sind – also ein Jahr ist viel zu viel Zeit, die Zahl ist sicherlich gestiegen –, wobei man eben diese Lernkurve bis zum tatsächlichen Einsatz, bis zu einer wirklichen Wertschaffung in Unternehmen bedenken muss. Das ist etwas anderes wie: Ich fange mit KI an oder ich beschäftige mich damit oder ich suche einmal die ersten Schritte. Und ich glaube, da dauert es schon länger. Ich bin bei Ihnen, da ist in einem Jahr viel passiert und das wird sicher nicht durch die Zahl abgebildet.

Jeannette Gorzala: Ich glaube, das ist, wenn wir mit Unternehmen - - Wie gesagt, die neuesten Zahlen für Österreich haben wir nicht, aber wenn ich mit Unternehmen spreche, die Cloud und AI dann einsetzen: Es ist sehr spannend, dass eigentlich österreichische Betriebe tatsächlich sehr schnell angefangen haben, darüber nachzudenken: Wie kann ich eigentlich – ich glaube, das haben Sie auch gesagt – so einfache Bausteine, einfache Projekte anfangen und schnell mit irgendwelchen Chatbots und so weiter da tatsächlich KI umsetzen? Aber neueste Zahlen gibt es für Österreich noch nicht.

Tristan Post: Also ich meine, man muss auch ein bisschen, glaube ich, die Zahl differenzieren. Letztendlich benutzen wir alle hier im Raum – 100 Prozent – KI. Wenn Sie E-Mail nutzen: Der Spamfilter ist nichts anderes als ein Beispiel für eine KI. Wenn Sie ein Handy haben: Der Autozoom ist nichts anderes als ein Beispiel für eine KI. Mittlerweile ist eigentlich KI in unseren Produkten, die wir nutzen, überall drinnen. Wir merken es nicht, was ja teilweise auch gut ist, weil sie sehr intuitiv integriert worden ist.

Bei einer Zahl wie diesen 17 Prozent geht es, glaube ich, eher darum: Wie viele Unternehmen haben sich jetzt bewusst Gedanken über den Einsatz von KI gemacht und haben Anwendungsfälle für sich identifiziert und die wirklich angegangen und das dann im Unternehmen integriert? So muss man wahrscheinlich denken. Natürlich, die Zahl wird sicherlich hochgehen, aber ich glaube, es ist auch sehr stark die Aufgabe der Politik, das noch viel stärker zu promoten und einen viel größeren Fokus darauf zu legen. Weil: Ich habe leider immer noch das Gefühl, dass gerade in vielen Bereichen KI immer noch als Forschungsthema gedacht wird und nicht darüber nachgedacht wird, wie die Wirtschaft davon profitieren kann, wie man ein Start-up-Ökosystem darüber aufbauen kann.

Günther Mayr: Ganz hinten.

Frage aus dem Plenum: Sie haben es ja angesprochen, es ist die Interaktion zwischen Mensch und Maschine. Es ist ... Was können wir aus den Erfahrungen der Wirtschaft für andere Sektoren mitnehmen? Wie setzen wir uns damit auseinander, wenn immer das Argument kommt: Das haben wir ja immer so gemacht?! Sie haben es ja angesprochen, es gilt, sich auch damit auseinanderzusetzen, das wirklich als Chance zu sehen ..., zum Beispiel auch hier im öffentlichen Sektor ...

Tristan Post: Ich finde, es gibt einfach sehr viele Parallelen, wenn wir uns überlegen, was passiert ist, als der Computer gekommen ist und als wir den Computer eingesetzt haben. Zum Beispiel damals, als es ja sehr präsent war, hatten die ersten Trader an der Wallstreet, die es geschafft haben, einen Computer zu nutzen, einen unglaublichen Vorteil und Vorsprung den anderen gegenüber. Ich glaube, es ist keine Option mehr, nicht über KI nachzudenken.

Ich hatte letztens ein sehr interessantes Gespräch mit dem Leiter des AI-Centers an der ETH, wo jetzt auch noch einmal eigene Sprachmodelle aufgebaut werden, und er hat gemeint – eine relativ provokante These, aber ich finde sie sehr spannend –: Jedes Unternehmen, das älter als fünf Jahre ist, könnte man mit KI komplett neu aufbauen und aus dem Markt treiben. Jedes Unternehmen muss sich eigentlich jetzt Gedanken darüber machen. Es geht nicht gerade um die Frage: Wie kann ich KI in meine Produkte reinbringen?, sondern um: Wie kann ich sie ins operative Geschäft reinbringen? Wie könnten andere Unternehmen von extern darüber nachdenken, KI einzusetzen und mir Konkurrenz zu machen? Ich glaube, da gibt es sehr, sehr viel, was gemacht werden muss, und das ist auch nötig.

Soeben kam die Frage nach dem öffentlichen Sektor: 2018 kam die KI-Strategie in Deutschland raus, und zwei Jahre später gab es von der FDP einen sehr interessanten Vorschlag – ich fand den sehr spannend, denn man merkt schon, dass im öffentlichen Sektor manchmal diese Erfahrung und die Expertise fehlt –: Jedes Ministerium im öffentlichen Sektor sollte zehn KI-Usecases für sich ID-aten, rausfinden und umsetzen.

Ich bin ein großer Fan von diesem Learning by Doing, denn: Wie habe ich mir das Wissen angeeignet? Ich habe irgendwann gemerkt: KI ist vor allem kein Forschungsthema, sondern ein strategisches Thema. Und da habe ich gemerkt: Ich kann nicht an der Uni bleiben, sondern ich muss Erfahrungen im echten Leben sammeln. Ich habe darauf geachtet, dass ich vom KI-Start-up zum großen Unternehmen wirklich rundum Erfahrung sammle, und nur so kann ich jetzt hier stehen und über diese Sachen sprechen, weil ich das eben in der Praxis alles erlebt habe. Ich glaube, man muss viel mehr von diesem Learning by Doing haben, und es ist, glaube ich, sehr wichtig, auch im öffentlichen Sektor diese Erfahrung, was es heißt, KI einzusetzen, selbst aufzubauen.

Isabell Claus: Raus aus dem normalen Mindset, besonders in IT-Abteilungen! Das wird oft vergessen; ja, man hat den Fachkräftemangel und alles ist schlimm – aber nein: KI ersetzt tatsächlich einen Teil, gerade im Softwaredevelopment, und es wird noch viel zu wenig - - Auch diese starke starre Denke: Softwareentwicklung, wie geht das? IT, wie geht das? Immer komplex, immer schwierig.

Ich glaube, da sind auch die Manager, Managerinnen stark gefordert, sich mit dem Thema viel mehr auseinanderzusetzen – ich sage es noch einmal: 80 Prozent ist die Zahl –, da selbst noch viel mehr an Know-how aufzubauen, damit sie vorausdenken können, wie ihre Organisation in fünf Jahren aussehen sollte und aussehen kann, was die heutigen Möglichkeiten sind, welche Skills sie selbst und welche auch die Mitarbeitenden in allen Bereichen brauchen. Das darf nicht mehr starr bleiben, das darf nicht mehr das gleiche Denken sein.

Günther Mayr: Hier war noch eine Frage, glaube ich.

Frage aus dem Plenum: Bisher wurde das Thema Kosten dieser Umstellung eigentlich überhaupt nicht angesprochen. Könnte es sein, dass das geringere Engagement im Bereich KI in Österreich an der Kostenstruktur oder an der Kapitalmacht liegt?

Ludmila Georgieva: Also ich würde jetzt einmal allgemein antworten: Wenn man KI tatsächlich einsetzt, geht es auch um Kosteneinsparungen, denn es geht um die Anwendung. Man muss halt die Phase des Developments einplanen – wie setze ich das im Unternehmen ein oder um? –, aber dann bedeutet KI tatsächlich auch Effizienzsteigerung, Produktivitätssteigerung. Das heißt eigentlich, der Nutzen ist im Endeffekt größer als die Kosten. So würde ich Ihre Frage beantworten, wenn ich Sie richtig verstanden habe. Wie bei jeder Technologie sind Kosten damit verbunden, aber im Endeffekt, langfristig bringt mir das quasi mehr Produktivität und mehr Effizienzsteigerung.

Tristan Post: Ich finde, das ist ein sehr wichtiger Punkt, denn wir sehen das; ich meine, es gibt Studien, die sagen: 87 Prozent der KI-Lösungen, die entwickelt werden, schaffen es nie in die Produktion. Meine Meinung, warum das so ist: KI wurde traditionell immer sehr technisch gedacht. Das kann man auch in Unternehmen oder auch im öffentlichen Sektor sehen. Wenn KI-Usecases entwickelt werden, dann werden immer Leuchtturmusecases entwickelt, die nicht unbedingt den größten Mehrwert haben.

Wir brauchen viel mehr dieses Businessdenken und diese Businessleute, die Kosten-Nutzen-Denken verstehen, denn oftmals wirft man sich auf irgendeinen Anwendungsfall. Gerade Unternehmen, die eben starten, haben ja gar nicht das Know-how und lassen sich dann vielleicht auch gerne einmal irgendetwas aufbinden. Es gibt aber viele Lösungen, die es wirklich schon auf dem Markt gibt, da muss man nicht irgendwie ein eigenes Modell selbst entwickeln und kann sehr kostengünstig und effizient arbeiten.

Dann sagen wir doch: Warum muss man als Unternehmen erst einmal irgendwie groß KI entwickeln? Eine Prolösung für Chat-GPT kostet 20 Euro – die muss man ja gar nicht einmal haben; teilweise ist das umsonst, wenn man keine Prolösung hat. Das steigert die Produktivität von vielen Leuten um 10 Prozent. Das muss man sich einmal vorstellen: Mit einer Lösung, die es umsonst gibt, kann man – wenn jeder wüsste, wie er sie richtig nutzen kann – eine Steigerung von – sagen wir vielleicht auch nur – 5 Prozent erreichen. Normalerweise, wenn ein Start-up kommt und sagt: He, ich kann die Produktivität des ganzen Unternehmens um 5 Prozent steigern!, würden die Leute ihm Geld hinterherschmeißen. Das Verständnis dafür ist aber oftmals noch nicht da.

Ludmila Georgieva: Ich finde es sehr spannend, dass man sagt, KI würde sehr technisch gedacht. Es ist tatsächlich so, wenn man ganz normal mit IT-Leuten spricht: KI ist eine Veränderung, und Veränderung bedeutet halt doch auch ein bisschen mehr Arbeit. Wir sehen auch bei Unternehmen sehr oft, dass die Entscheidung über KI-Anwendungen auf höchster Ebene, in der Geschäftsführung fällt, weil man da diesen Kosten-Nutzen-Faktor sieht – das ist eine High-Level-Entscheidung, eine Grundsatzentscheidung: wir gehen in diese Richtung und möchten das anwenden –, weil es natürlich in erster Linie in der ersten Phase auch eine Umstellung bedeutet.

Günther Mayr: Eine Frage würde ich noch nehmen.

Frage aus dem Plenum: Wenn ich es richtig verstehe, ist der Engpass die digitale Infrastruktur – in Klammern: fehlende Glasfaser. Es nützt mir nichts, wenn ich über alte Bleileitungen 5 oder 6 Mbit down- oder uploaden, aber nicht diese großen Datenmengen verarbeiten kann. Damit ist das ganze flache Land eben letztlich unterversorgt mit diesen Möglichkeiten. Nur ein aktuelles Beispiel: Seit einer Woche ist ID Austria gestört. Wenn Sie etwas signieren wollen, hängen Sie in der Luft.

Jeannette Gorzala: Ich glaube, das ist ein Aspekt im KI-Bereich. Ich glaube, das, bei dem uns sehr, sehr viel fehlt, ist natürlich die Computing Power und das Chipsthema. Jemand hat es vorhin erwähnt: Wer in Nvidia investiert hat, hat ein gutes Investment gemacht. Wir brauchen einfach GPU-Rechencluster, um diese Modelle zu trainieren, und davon haben wir wenige beziehungsweise sind die Ressourcen in Europa auch relativ verstreut, nicht so gebündelt, wie wir sie eigentlich brauchen würden, um diese Modelle selbst zu entwickeln und selbst zu trainieren. Das heißt, da fehlt es uns an der Rechenpower und an den Chips, und natürlich geht es auch um das ganze Elektrizitätsthema. Diese Ressourcen fehlen uns sehr, sehr stark für die KI-Entwicklung. Weniger, glaube ich, ist es ein Glasfaserthema, sondern es ist mehr dieses Rechenkapazitäts- und Chipsthema, das uns da ein bisschen zurückhält.

Ludmila Georgieva: Vielleicht nur ganz kurz zur Verantwortung: Tatsächlich kann man auch ein bisschen mitgestalten, Unternehmen, große, technische Unternehmen wie wir – Datencenter, diese letzte Meile bis zum Kunden und so weiter, Unterseekabel, all das halt –; da sind natürlich alle gefragt, in die Infrastruktur zu investieren – Satelliten, genau. Elon Musk hat es vorgezeigt.

Günther Mayr: Da habe ich dann ein eigenes Thema.

Ganz kurz, bitte: kurze Fragen, kurze Antworten, dann geht es sich aus.

Frage aus dem Plenum: Zum KMU-Bereich: AI-Act ist schon angesprochen worden. Ich sehe bei vielen KMUs auch einen anderen rechtlichen Schauplatz und einfach Fragezeichen, weil kleine Unternehmen einfach keine rechtliche Expertise in dem Bereich haben. Es geht um Datenschutz, es geht um Urheberrecht, es geht um Arbeitnehmerschutz. Wir haben in Österreich jetzt in der RTR eine Servicestelle für Unternehmen aufgebaut, die natürlich jetzt auch erst ins Tun kommt. Wie machen das andere Länder, um besonders die Klein- und Mittelbetriebe zu unterstützen, damit sie KI einsetzen können, wenn diese vielen rechtlichen Fragen auch noch zu beantworten sind?

Jeannette Gorzala: Ich finde es großartig, dass wir in Österreich diese Servicestelle haben, denn natürlich muss man zum AI-Act und zu all diesen Themen auch die Behördeninfrastruktur und die Prozesse aufbauen.

Wie machen das andere Länder? Eigentlich gibt es da diverse Zugänge. Spanien zum Beispiel errichtet eine ganz neue KI-Behörde, die sich mit dem Thema auseinandersetzen wird. Die Niederlande integrieren das Thema KI in die vorhandenen Behördenstrukturen und siedeln das Thema dort an.

Was interessant ist, ist das Thema KI-Beirat. Wir sehen das eigentlich in Großbritannien, in den USA, in Österreich und in vielen EU-Mitgliedstaaten, dass überall KI-Beiräte eingerichtet werden, um das Thema dann weiterzutreiben. Ich glaube, die KI-Servicestelle ist ein ganz wichtiger Ansatzpunkt, nämlich gerade in der Zwischenphase, nämlich jetzt, wo es all diese Fragen und Unklarheiten gibt, bis dann die KI-Behörde da ist, um das Thema zu übernehmen – das sehe ich als einen uniquen, guten Ansatzpunkt.

Das, was hier entscheidend sein wird, ist auch die Geschwindigkeit: relativ schnell ins Arbeiten kommen, relativ schnell Klarheit schaffen, relativ schnell Guidance geben, um eben alle diese Fragezeichen, die es gibt, asufzulösen.

Günther Mayr: Ich glaube, da bleibt noch viel zu tun, das hört man. Die KI hätte in diesem Fall nicht bemerkt, dass Ihr Ohrring das Mikrofon stört.

Ich bedanke mich bei Ihnen für das Interesse. Ich bedanke mich bei Ihnen am Podium und für Ihre wertvollen Keynotes sowie bei unserem Hausherrn, Parlamentspräsident Wolfgang Sobotka, der auch eingetroffen ist. Herzlichen Dank und bis zum nächsten Mal zum Thema KI. (Beifall.)

Schluss der Veranstaltung: 11.21 Uhr