Anmoderation: In dieser Folge von Politik am Ring, der Diskussionssendung des Parlaments, diskutiert Moderator Gerald Groß mit den Abgeordneten Maria Theresia Niss von der ÖVP, Petra Oberrauner von der SPÖ, Gerhard Deimek von der FPÖ, Süleyman Zorba von den GRÜNEN und Helmut Brandstätter von NEOS über Künstliche Intelligenz und ob die KI-Strategie der Bundesregierung geeignet ist, Österreich fit für die Zukunft zu machen. Zu Gast sind Sabine Köszegi vom österreichischen Robotik-Rat und der KI-Experte Michael Katzlberger. Das Gespräch haben wir am 18. Oktober 2021 im Dachfoyer der Wiener Hofburg aufgezeichnet.
*****
Gerald GROẞ (Moderator): Hallo und herzlich willkommen bei Politik am Ring, noch dazu bei einer Jubiläumsausgabe. Das ist Politik am Ring Nummer 10, meine Damen und Herren, und diese Ausgabe steht ganz im Zeichen der künstlichen Intelligenz. Trotzdem ist der Moderator aus Fleisch und Blut, und auch unsere Diskutanten, die Politikerinnen und Politiker sowie die Expertinnen und Experten werden wie immer echt sein. Im August, bei den Alpbacher Technologiegesprächen, wurde die Strategie der Bundesregierung für Künstliche Intelligenz, kurz KI, präsentiert. Die beiden zuständigen Ministerinnen Margarete Schramböck und Leonore Gewessler sprachen von einem ambitionierten Plan, während die Opposition diese Strategie als zu langsam und zu wenig kritisiert hat. Auch von WissenschaftlerInnen ist inzwischen sehr viel Kritik gekommen. In einer gemeinsamen Stellungnahme mehrerer Forschungseinrichtungen heißt es wortwörtlich: „Die österreichische KI-Strategie ist eine bittere Enttäuschung und eine Gefahr für den Standort.“ Also ambitioniert oder enttäuschend? Ist die KI-Strategie der Bundesregierung geeignet, Österreich fit für die Zukunft zu machen? Darüber diskutieren wir heute, und zwar mit Gerhard Deimek von der FPÖ – herzlich willkommen! –, mit Helmut Brandstätter von den NEOS – ebenfalls herzlich willkommen! –, mit Petra Oberrauner von der SPÖ – guten Abend! –, mit Maria Theresia Niss von der ÖVP und last, but not least Süleyman Zorba von den Grünen – herzlich willkommen Sie alle! Außerdem erwarten wir Inputs von Universitätsprofessorin Sabine Köszegi und dem KI-Experten Michael Katzlberger. Meine Damen und Herren, wahrscheinlich wissen Sie, was der Turing-Test ist. In dem nach dem britischen Mathematiker Alan Turing benannten Test muss eine Person mehrmals in der Lage sein, fehlerfrei zu bestimmen, ob eine Antwort auf eine gestellte Frage von einem Computer oder einem Menschen gegeben wurde. Kann die Person das nicht, dann hat der Computer den Test bestanden. Zum ersten Mal hat künstliche Intelligenz den Turing-Test 2014 bestanden, gleich zehn Juroren dachten damals im Zuge einer schriftlich geführten Konversation, sie würden sich nicht mit einer Maschine, sondern mit einem jungen Menschen aus der Ukraine unterhalten. Inzwischen ist Artificial Intelligence oder künstliche Intelligenz nichts Außergewöhnliches mehr, sondern, im Gegenteil, Teil unseres Alltags – auch wenn wir uns dessen nicht immer bewusst sind.
*****
Es folgt eine Videoeinspielung:
Sprecher: Selbstfahrende Autos und Busse, Sprachassistenten wie Siri oder Alexa, Chatbots auf Webseiten oder intelligente Produktionsmöglichkeiten – künstliche Intelligenz ist bereits Teil unseres Lebens.
Clemens Wasner (AI Austria): Das, was wir heute unter künstlicher Intelligenz verstehen, beschreibt eigentlich, dass im Gegensatz zu früher, als jedes einzelne Kommando vom Programmierer hat reinprogrammiert werden müssen, um zum Beispiel ein Gesicht zu erkennen, das heute von sogenannten Trainingsdaten maschinell erlernt wird. Das heißt, ich füttere ein System mit einer ausreichend großen Anzahl von Bildern, auf denen Personen drauf sind, und das System lernt dann selbstständig, im Bild zu erkennen, woran es jetzt zum Beispiel Personen von Objekten unterscheiden kann.
Sprecher: Oft merken wir gar nicht, dass wir es mit KI zu tun haben.
Clemens Wasner: Die bekanntesten Beispiele, die uns jeden Tag als Anwendungsgebiet von künstlicher Intelligenz begegnen, sind sicher einerseits Empfehlungssysteme, Stichwort Onlineshop, der Ihnen aufgrund Ihrer persönlichen Historie das nächste Produkt, das Sie kaufen, vorschlägt. Die sicher niederschwelligste Anwendung von künstlicher Intelligenz findet tagtäglich im Telefon statt. Wenn Sie ein Telefon nehmen, also ein Handy, und damit ein Foto schießen, dann liegt zum Beispiel diesem Tiefenunschärfeeffekt, diesem Bokeh-Effekt, ein neuronales Netz zugrunde, das erkennt, wer sich im Vordergrund befindet und was der Hintergrund ist, sodass der Hintergrund dann weich gezeichnet wird.
Sprecher: KI dringt aber auch zunehmend in sensible Bereiche vor. Eine Anwendung schlägt im letzten Jahr in Österreich hohe Wellen: Das AMS will automatisiert berechnen lassen, wie die Chancen bestimmter Arbeitsuchender auf einen Job stehen. Kritiker laufen dagegen Sturm, weil ihrer Meinung nach bestimmte Gruppen diskriminiert werden. Das AMS verneint zwar, dass bei dem System KI im Einsatz ist, doch laut eines Entwurfs der EU würde eine solche Anwendung wahrscheinlich dazugezählt und als Hochrisikoanwendung verhindert werden.
Clemens Wasner: Es ist ja dieses Jahr im April der erste Draft vom EU AI Act erschienen, der jetzt gerade zur Begutachtung in den nationalen Parlamenten ist und dann Mitte 2023 umgesetzt werden soll. Er ist sehr gut vergleichbar mit der DSGVO, und darin ist eigentlich entlang von vier Risikoklassen genau vorgeschrieben: Was muss ich zertifizieren? – Eine Maschinenwartungssoftware muss ich nicht zertifizieren, weil diese nichts mit Personen zu tun hat. Wenn es um einen Customersupport geht und dort zum Beispiel ein Chatbot ist, dann muss ich anzeigen, dass da eine KI und kein Mensch dahintersteckt. Weiter regulierungswürdig ist alles, was mit persönlichen Daten zu tun hat, sei es ein Human-Resources-System oder sei es die Segmentierung von Kunden und so weiter. Da muss ich wirklich eine Zertifizierung durchlaufen, um nachzuweisen, dass kein Schindluder betrieben wird. Und dann gibt es ganz auf der Spitze der Pyramide in diesem vierstufigen System natürlich Anwendungsgebiete, die komplett ausgeschlossen sind, wie zum Beispiel Massenüberwachung aufgrund von biometrischen Signalen, oder dass jemand Profiling in Bereichen einsetzt, die mit seinem Kernbereich nichts zu tun haben.
Sprecher: Im August stellen die Digitalisierungsministerin Margarete Schramböck von der ÖVP und Klimaschutzministerin Leonore Gewessler von den Grünen die KI-Strategie der österreichischen Bundesregierung vor. Die Hauptziele sind:
Sprecherin: 1. Es wird ein am Gemeinwohl orientierter, breiter Einsatz von KI angestrebt, der in verantwortungsvoller Weise auf Basis von Grund- und Menschenrechten, europäischen Grundwerten und des kommenden europäischen Rechtsrahmens erfolgt. 2. Österreich soll sich als Forschungs- und Innovationsstandort für KI in Schlüsselbereichen und Stärkefeldern positionieren, und 3. mittels der Entwicklung und des Einsatzes von KI soll die Wettbewerbsfähigkeit des österreichischen Technologie- und Wirtschaftsstandorts gesichert werden.
Sprecher: Für den Experten ist das zu wenig.
Clemens Wasner: Österreich hat keine KI-Strategie. Österreich hat eine Absichtserklärung, die verglichen mit anderen Nationalregierungen auf dem Stand von vor drei Jahren ist, also Stand 2018. Woran lässt sich das festmachen? – Wenn ich in unsere Nachbarländer schaue, zum Beispiel nach Deutschland, Italien oder auch Slowenien, so sind dort Budgets im dreistelligen Millionenbereich bereits vorgesehen, hinter denen auch konkrete Maßnahmen stehen. In der österreichischen KI-Strategie befinden sich Absichtserklärungen wie: Ja, wir müssen schauen, dass sich in der Ausbildung etwas tut, wir müssen schauen, dass sich in der industriellen Anwendung und Forschung etwas tut, und man geht unter anderem auch sehr stark auf diesen ganzen Regulierungsteil ein, der aber paradoxerweise ja von EU-Seite kommt – da hat man ja zum jetzigen Zeitpunkt keinen Einfluss mehr.
*****
GROẞ: Neben mir im Politik-am-Ring-Studio hat inzwischen Frau Sabine Köszegi Platz genommen – herzlich willkommen! Sie ist Professorin für Arbeitswissenschaft und Organisation an der Technischen Universität Wien und – so gesehen sitzen Sie heute gewissermaßen in einer doppelten Rolle da – seit 2009 Vorsitzende des Österreichischen Rates für Robotik und Künstliche Intelligenz. Da könnte man sich als Laie wundern: Seit 2009 gibt es einen solchen Rat in Österreich schon. Waren wir da so etwas wie Frontrunner?
Univ.-Prof. Mag. Dr. Sabine KÖSZEGI (Österreichischer Rat für Robotik und Künstliche Intelligenz): Seit 2017, muss ich korrigieren. Vor vier Jahren also ist dieser Rat in Alpbach vorgestellt worden, und damals war Österreich tatsächlich noch Vorreiter in Europa. Ich kann mich erinnern, dass mich der Schweizer Rundfunk angerufen hat: Österreich gründet einen Roboterrat! Was macht ihr dort? Das heißt, damals unter Jörg Leichtfried wurde offensichtlich, dass Österreich eine Strategie braucht, dass es ExpertInnen, interdisziplinäre ExpertInnen, braucht, die die Regierung dabei unterstützen, diese Strategie zu entwickeln, und damals wurden im Vorfeld einige Hearings gemacht und eben dieser Rat eingerichtet.
GROẞ: Wenn man sich aber jetzt das angehört hat, was die Experten in diesem Beitrag gesagt haben, dann hat man den Eindruck, wir seien gewissermaßen vom Frontrunner zum Follower geworden. Ist das so, auch in Ihrer Wahrnehmung?
KÖSZEGI: Die Strategie ist reichlich spät gekommen, wir sind da Schlusslicht in Europa. Es gibt ja den Koordinierten Aktionsplan zur künstlichen Intelligenz in Europa, mit dem Mitgliedstaaten eben eine abgestimmte Strategie zur KI – weil es ja ein Europathema ist, auch wettbewerbstechnisch ein Europathema ist – entwickeln sollten. Da sind wir leider jetzt aufgrund zweier Regierungsumbildungen und einer InterimsexpertInnenregierung recht spät dran.
GROẞ: Okay, ich komme gleich noch einmal zu Ihnen zurück. Gehen wir einmal in die Runde der Abgeordneten: Frau Niss als Vertreterin der ÖVP, das ist doch eigentlich eine recht harte Kritik an diesem ambitionierten Papier, wie es auch Ihre Ministerin, Frau Schramböck, bezeichnet hat. Als Standort will sich Österreich positionieren, auch als KI-Standort, und den Wettbewerbsvorteil nutzen. Offensichtlich sind das aber, wie wir gehört haben, eher Absichtserklärungen als tatsächlich konkrete Chancen.
Mag. Dr. Maria Theresia NISS, MBA (ÖVP): Na ja, also zuerst einmal ist zu sagen, zu den Rahmenbedingungen, unter denen die KI-Strategie entwickelt worden ist – das hat ja auch die Frau Professor schon gesagt –: Wir haben 2017 sehr schnell angefangen, an der Strategie zu arbeiten, es gab ja dann auch ein Expertenpapier. Es sind uns aber dann, wie wir alle wissen, zwei Regierungswechsel dazwischengekommen, und sobald sich dann die Regierung gefunden hat und wir sozusagen in die Umsetzung der Strategie oder in die Konkretisierung der Strategie gehen wollten, ist Corona gekommen. Das war einfach eine blöde Aneinanderreihung von Ereignissen, ehrlich gesagt. Wir haben jetzt eine Strategie, und wir wissen natürlich auch, dass diese Strategie jetzt einmal die Rahmenbedingungen festsetzt, und sie ist auch eine agile Strategie, das heißt, sie wird noch konkretisiert, da werden Umsetzungen gemacht. Zu Ihrer Frage aber, gerade bezüglich Wettbewerbsstandort: Ich glaube, das Wesentliche ist auch, was die Strategie aussagt und worauf wir uns konzentrieren wollen. Das ist meiner Meinung nach einerseits die zweite Säule und die dritte Säule, also dass wir uns auf die Entwicklung von KI-Schlüsseltechnologien konzentrieren, wo Österreich ja auch Stärken hat, die wir nutzen wollen. Wir wollen aber auch unsere Unternehmen, unsere Wirtschaft und auch die Verwaltung durch den Einsatz von KI noch weiter voranbringen – das sehe ich als ganz wesentlich an.
GROẞ: Darf ich da nur zwischenfragen: Was für KI-Schlüsseltechnologien sind denn das, die Sie da ansprechen?
NISS: Na ja, zum Beispiel haben wir gerade im Bereich Industrie 4.0 sehr gute Unternehmen, haben wir Hidden Champions. Beispielsweise – ich kann das aus eigener Erfahrung erzählen – ist in unserem Unternehmen der Bereich der Visualisierung, also der Qualitätsprüfung, ein Bereich, wo wir KI schon anwenden – und auch sehr erfolgreich anwenden! –, weil die KI gerade im Zusammenspiel mit dem Menschen da einfach genauer und exakter ist; und da gibt es weitere Bereiche, Sensorik et cetera, wo unsere Wirtschaft, unsere Industrie federführend sind.
GROẞ: Herr Zorba von den Grünen, was von den Fachleuten immer wieder kritisiert wird, ist die fehlende Grundlagenforschung in diesem Bereich. Ich habe ein Interview mit Sepp Hochreiter gelesen – er ist einer der bekanntesten Professoren in diesem Bereich, er lehrt an der Johannes Kepler Universität in Linz und steht auch dem Institut für Machine Learning vor –, und er sagt zum Beispiel: Das Problem dieser Strategie ist, dass sie zwar sozusagen Anwendungsfälle bringt und zum Beispiel auch das Thema Reglementierung und Regulierung beachtet und sich damit auseinandersetzt, was aber fehlt, ist eben der Kern der Forschung im Bereich künstliche Intelligenz, und das ist die Grundlagenforschung. Versäumen wir da etwas?
Süleyman ZORBA (Grüne): Durchaus, und wir haben auch sicherlich bis heute einiges versäumt. Die Kritik, die jetzt im Raum steht, ist anzunehmen, es stimmt auch. Man muss aber auch dazusagen, dass die Regulierung und Förderung von KI in Österreich nicht mit diesem Papier angefangen hat und auch nicht damit aufhören wird. Wie Kollegin Niss schon angesprochen hat: Das ist jetzt eben einmal die Grundlage, auf der wir aufbauen können, die wir dringend gebraucht haben, weil die genannten Problematiken da waren, mit Regierungswechsel et cetera, die Zeit in Anspruch genommen haben. Unser Ziel aber ist es, als Regierung diesem Thema eine Wichtigkeit zu geben. Um das zu sehen, muss man nur die Regierungsvorhaben der letzten Regierungen und jene von der jetzigen türkis-grünen Regierung anschauen. Da haben wir ja drei bis vier Seiten, die sich ausschließlich um künstliche Intelligenz drehen. Vielleicht sind wir jetzt mit dem Strategiepapier weiter hinten, ich glaube aber, wir haben viel vor und könnten einiges aufholen.
GROẞ: Darf ich vielleicht noch fragen: Wenn wir von künstlicher Intelligenz sprechen, ist das ja ein sehr weites Feld. Was bedeutet es für Sie eigentlich und wo sind Ihre ganz konkreten Berührungspunkte dazu?
ZORBA: Ich glaube, Berührungspunkte hat man wahrscheinlich auch in der Sendung. Dass die Menschen da gerade zuschauen können, da spielt KI mit, weil es vermutlich auch Menschen über Facebook streamen werden, und dort setzt man ganz viel auf KI. Ob man jetzt ein Foto am Handy macht – es spielt ja in allen Lebensbereichen mit. Ich glaube, das Problem, das wir in der gesellschaftlichen Debatte, die wir auch benötigen, haben, ist: Wenn man KI hört, ist das ein Schlagwort, und dann hat man ganz komische Bilder im Kopf: Ist das jetzt etwas Bedrohliches? Ändert sich da jetzt meine Lebensgrundlage? Verliere ich meinen Job? Wird das zu gesellschaftlichen Problemen führen? – Solche Probleme können natürlich auftreten, aber daran müssen wir arbeiten, und ich glaube, neben dem Politischen, das vor uns steht, ist vielleicht auch eine gesellschaftliche Debatte über das Thema KI wichtig, sodass wir auch aufklären können, um was es da überhaupt geht.
GROẞ: Okay. – Frau Oberrauner, für die SPÖ: Was ist für Sie als Abgeordnete der SPÖ künstliche Intelligenz? Wo sehen Sie die Chancen, wo sehen Sie die Gefahren und wo sehen Sie mögliche Versäumnisse dieses Papiers, über das wir heute diskutieren?
Mag. Dr. Petra OBERRAUNER (SPÖ): Ich glaube, dass das Papier eigentlich ein Vorhabensbericht ist, weil ja bei vielen Teilbereichen noch steht: Muss geprüft werden. Ich verstehe das aber, das ist jetzt gar keine Kritik. Es ist eine Kritik inhaltlicher Art, aber wie Kollegin Niss gesagt hat: Es ist sehr viel Zeit mit anderen Dingen vergangen. Die anderen Mitgliedstaaten haben 2018 angefangen, sind jetzt schon in der Evaluierung, und wir beginnen jetzt, uns damit zu beschäftigen. Man muss aber sagen: Die künstliche Intelligenz hat schon ohne uns stattgefunden. Für uns als Politiker ist es ja wichtig, dass wir Rahmenbedingungen schaffen, die klar sind, und da gibt es zwei Teilbereiche: Das eine ist der Mensch an sich. Wie geht er mit künstlicher Intelligenz um? Um das zu wissen, muss er ja entsprechend aufgeklärt werden und die Chance haben, das zu diskutieren und auch zu erfahren, wie das funktioniert. Das ist auch demokratiepolitisch nicht unwichtig, denn wenn man weiß, dass zum Beispiel Klicks mit Algorithmen gemacht werden können, dann kann natürlich ein Bild in der Gesellschaft beziehungsweise in der Öffentlichkeit entstehen, das eigentlich nicht durch Menschen gemacht ist. Das ist auch demokratiepolitisch hochgefährlich, und da sollte man schon drauf schauen, dass es klare Regeln, Spielregeln, und klare Rahmenbedingungen gibt. Die haben wir im Moment nicht! Es gibt dann den anderen Bereich, der nicht direkt mit den Menschen zu tun hat, indirekt aber schon – das ist die Industrie. Da sehe ich zum Beispiel, aus Villach mit den großen Industriebetrieben kommend, dass künstliche Intelligenz dort richtig und wichtig ist, wenn es zum Beispiel um Logistik geht, um Beförderung von Materialien, um Dinge, die routinemäßig ablaufen, die aber sozusagen intelligente Menschen nicht mehr mit Arbeiten belasten, die eben ein Roboter verrichten kann. Diese Menschen können sich dann anderen Dingen widmen Das ist, glaube ich, schon wichtig: dass ja in der künstlichen Intelligenz nichts drinnen ist, was nicht ein Mensch hineinprogrammiert hat. Ich bin grundsätzlich der Meinung, dass die Technologie und alles, was damit zusammenhängt, auch künstliche Intelligenz, den Menschen als Tool zugeordnet werden soll, nicht sich verselbständigen soll und die Menschen in eine Situation bringen, in der es um Datenschutz, Konsumentenschutz und so weiter geht. Ich glaube, genau darauf haben wir zu schauen, genau das ist unsere Aufgabe in der Politik: die Menschen zu schützen und aufzuklären.
GROẞ: Okay. – Herr Deimek von der FPÖ, es wurde schon in den ersten Minuten kritisiert, dass für dieses Thema auch zu wenig Geld veranschlagt ist. Sollen wir in dieses Thema überhaupt mehr Geld hineinbuttern, salopp gesagt, oder sollte man es, aus Ihrer Sicht, ohnedies anders ausgeben?
Dipl.-Ing. Gerhard DEIMEK (FPÖ): Na, ich glaube, dass es unbedingt notwendig ist, viel Geld – wie immer dann „viel“ genau definiert ist – zu nehmen, denn die Beschreibungen von Kollegin Niss haben das ja schon bestätigt: Wir setzen auf Aktivitäten auf, die die Industrie ohne die Politik getroffen hat, und auf diesen Entscheidungen müssen wir jetzt weiter aufbauen. Wir müssen einmal ein Ziel definieren: Wo wollen wir als Land Österreich hinkommen? Dann müssen wir entsprechende Maßnahmen definieren, und diese Maßnahmen kosten üblicherweise Geld. Und Geld heißt nicht ein, zwei Millionen Euro, sondern wenn wir das nehmen, was bei der Präsentation des Papiers gesagt wurde, dann reden wir von durchschnittlich 200 Millionen Euro pro Jahr. Es könnte passieren, dass man gerade am Anfang etwas mehr braucht als diese 200 Millionen Euro, und die 200 Millionen Euro müssen sich auch dezidiert in den Budgets finden, was sie leider bis jetzt noch nicht einmal tun. Wenn sie dann budgetiert sind, gehören sie auch zugeordnet, und zwar zugeordnet in der vollen Breite, das heißt sowohl bei der Grundlagenforschung als auch bei der angewandten Forschung – zeitlich natürlich zuerst bei der Grundlagenforschung. Und ohne diese Mittel werden wir entsprechende Maßnahmen nicht umsetzen können. Wir sind bei den Maßnahmen schon hinten, das heißt, wir müssen eher schauen, dass wir zügig aufholen können. Ob das gelingt, steht auf einem zweiten Blatt Papier, und wir müssen uns natürlich auch der bestehenden Institute bedienen, sei es jetzt die TU Wien, sei es das LIT in Linz und so weiter. Dort, wo es schon Erfahrungen gibt, dort muss man das möglichst rasch entsprechend aufsetzen.
GROẞ: Vielen Dank. – Herr Brandstätter, weil jetzt immer wieder von Zielen die Rede war: Was könnte denn so ein Ziel in Zusammenhang mit unserer Strategie für künstliche Intelligenz sein? Sehen Sie auch die Gefahr, wie manche Expertinnen und Experten, dass wir da vom Produzenten zum reinen Konsumenten werden, weil wir wertvolle Zeit verschlafen haben?
Dr. Helmut BRANDSTÄTTER (NEOS): Na ja, aber das gilt ja nicht nur für Österreich, das gilt für ganz Europa. Ich bringe immer gerne Bücher mit: Das hat Kai-Fu Lee, einer der führenden Forscher, aber auch Unternehmer – er war auch Google-Chef in China –, geschrieben, da geht es um Silicon Valley versus China. Da kommt Europa auf einer halben Seite vor, und da wird erklärt, dass wir keine Chance haben – mit mehreren Begründungen: eine ist mangelnde Forschung, eine ist auch Datenschutz. Ich glaube, wir müssen über Datenschutz reden, ich glaube, das Wort gibt es auf Chinesisch gar nicht, die Amerikaner haben andere Gesetze. Bei uns hat man, bevor man zu forschen begonnen hat, schon auf Datenschutz Wert gelegt – was ich nicht herunterreden möchte, ganz im Gegenteil; man sieht ja schon Gefahren, ich sehe auch Gefahren. Wir werden am Mittwoch im Innenausschuss einen Antrag einbringen, was die Erkennung von Gesichtern durch die Polizei betrifft – da müssen wir sehr vorsichtig sein, das müssen wir ablehnen. Auf der anderen Seite – Kollegin Niss hat das richtig gesagt –: Die Unternehmen haben wir ja, und die arbeiten, wir haben Forschungsinstitute, 18 von 22 österreichischen Universitäten haben im Bereich künstliche Intelligenz geforscht – aber die Möglichkeiten, dass sie darüber hinauswachsen, haben wir ihnen nicht gegeben. Einer der wesentlichen Punkte ist natürlich, dass die Finanzierung fehlt. Wir haben Herrn Professor Hochreiter, er wurde angesprochen, er ist einer, ich glaube, weltbe- -, Frau Professor Köszegi wird das besser sagen können, aber jedenfalls in Europa durchaus bekannt – aber darüber hinaus haben wir nichts. Wir reden darüber, dass wir eine technische Universität in Linz brauchen. – Ich habe nichts gegen eine neue technische Universität, aber was das Ziel der technischen Universität ist, das habe ich bis jetzt nicht verstanden. Da hätte man sagen können, dort wollen wir besonders künstliche Intelligenz erforschen. Das Nächste sind die gesellschaftspolitischen Fragen, die ich auch ansprechen möchte. Das ist ja sehr interessant, wenn selbst Kai-Fu Lee schreibt, im Zuge einer Erkrankung, einer Krebserkrankung, die er selber hatte, ist er irgendwann draufgekommen, er funktioniert eigentlich nur mehr als Algorithmus, und die Krebserkrankung hat ihn dazu gebracht, wieder zu überlegen: Was macht das mit uns? Andererseits: Es ist halt sehr convenient, diese künstliche Intelligenz ist sehr angenehm – wenn der Kühlschrank von selber bestellt, muss ich nicht einkaufen gehen –, das läuft alles von selber, aber es reduziert halt auch – und das wissen wir ja von den Algorithmen, auch im politischen Bereich, wo das ja viel gefährlicher ist – unsere Wahrnehmung. Die nächste Stufe – über das werden wir ohnehin noch sprechen – ist, dass die Maschinen ja dann miteinander reden werden; das ist das, was er als die vierte Stufe der künstlichen Intelligenz beschreibt, die autonomous artificial intelligence. Wie können wir denn das kontrollieren? Können wir das überhaupt kontrollieren? Damit müssen wir uns auch beschäftigen, aber den Menschen nicht gleich Angst machen. Für mich ist das ein wesentlicher Punkt der Politik: Ich selber bin kein Techniker, ich kann mir vieles gar nicht erklären, aber ich habe eine gewisse Begeisterung dafür, dass vieles in unserem Leben angenehmer und einfacher wird; ich möchte gleichzeitig zumindest verstehen, wie die Mechanismen sind, und ich möchte, dass wir entsprechende Gesetze vorbereiten, damit der Missbrauch so weit wie möglich eingeschränkt wird.
GROẞ: Dann sage ich einmal vielen herzlichen Dank. Frau Köszegi, nach dieser ersten Runde zeigt sich natürlich, dass dieses Thema unglaublich vielfältig ist und dass es wahnsinnig schwierig ist, sozusagen immer vom Gleichen zu reden. Nach dieser ersten Runde: Was ist Ihr Eindruck? Versuchen wir, ein bisschen zu ordnen, was wir jetzt gehört haben beziehungsweise was bis jetzt besprochen worden ist.
KÖSZEGI: Also mir erscheint es einmal wichtig, zu sagen: Dass der Begriff künstliche Intelligenz in den letzten Jahren so gehypt hat, ist unter anderem Deepmind und Lee Sedol geschuldet, der da eben verloren hat, da war sozusagen das erste Mal ein Mensch auch tatsächlich einer Maschine unterlegen.
GROẞ: Das war der berühmte Schachcomputer.
KÖSZEGI: Das war das Go-Spiel, 2016. KI ist aber viel, viel mehr, also das ist nicht nur datengetriebene KI, sondern es gibt auch die sozusagen good old-fashioned künstliche Intelligenz, die schon mehrere Winter erlebt hat, wo wir auch über logische Repräsentation Systeme ansteuern, unter KI fallen eben auch Systeme wie Roboter, also mit maschinellen Komponenten, die ein sogenanntes embodiment haben, und so weiter. Wenn man sich jetzt – weil Sie das angesprochen haben – die europäische Erzählung anhört, mit trustworthy AI, dann ist die eben: Wir haben keine Googles und Facebooks und wir haben auch nicht den Zugang zu diesen Daten, das ist auch nicht die Stärke Europas, aber Europa hat wunderbare Stärken in den Bereichen, die wir gerade aufgezählt haben, also zum Beispiel in der Automatisierungstechnik, in der Sensorik et cetera, und der Weg Europas wird sein, da die Stärken auszubauen; also es gilt gar nicht so sehr, China Konkurrenz zu machen. Wir haben gute, solide Ingenieursausbildungen, wir brauchen Elektrotechnik, wir brauchen Maschinenbau, wir brauchen Informatik, das heißt, wir brauchen interdisziplinäre Kompetenzen und nicht nur – weil das jetzt auch ein paar Mal gefallen ist – ProgrammiererInnen, die dann eben deep neural nets programmieren können, sondern wir brauchen Expertinnen und Experten in vielen Bereichen, in vielen Mint-Fächern, die zusätzlich eben auch diese Komponenten, diese Ausbildungen in KI haben. Das heißt, für mich ist die europäische Geschichte eine schöne Geschichte, weil sie sagt und davon ausgeht: Wenn wir besonders gute, ethische, menschenrechtskonforme Standards in der KI-Technologie setzen, dann werden Konsumentinnen und Konsumenten bereit sein, dafür, also für diese Qualität, einen Preis zu zahlen; und wir können international Standards setzen. (Brandstätter: Aber gibt es eine gemeinsame europäische Geschichte überhaupt? Ich sehe sie nicht!)
GROẞ: Sie sitzen ja selber in sehr vielen oder doch zumindest einigen europäischen Räten. Können Sie da ein bisschen aus dem Nähkästchen plaudern, ob es diese gemeinsame Strategie gibt oder ob jedes einzelne Land seine eigene Strategie macht? Wir haben jetzt schon einiges gehört, von Deutschland bis hin zu Slowenien, aber das kann es im Endeffekt ja nicht sein.
KÖSZEGI: Nein, also wir sprechen ja heute unter anderem auch darüber beziehungsweise es ist im Beitrag, im Einspieler gekommen, dass es den europäischen Regulierungsentwurf für KI gibt und auch die Machinery Directive, wo sozusagen ganz bestimmte Anwendungen je nach Risiko in Gesamteuropa, nämlich im europäischen Markt reguliert werden sollen. Dazu braucht es sozusagen einerseits Regulierung, es braucht Standards, und das ist ein gemeinsames europäisches Projekt und ist auch nur europaweit sinnvoll. Was jetzt zielführend wäre, und das soll auch passieren: dass die Einzelstaaten ihre Ressourcen in diese gemeinsame Strategie einbringen, das heißt, ihre Forschungszentren, ihre Teststraßen, die sie bereits haben, oder Testtechnologien, die sie bereits haben; und was sie einbringen sollten, sind natürlich tatsächlich spezifische Maßnahmen, die in den einzelnen Ländern eine Umsetzung dieser KI-Strategie ermöglichen. Das ist zum Beispiel die Bildungspolitik, weil das gemäß EU-Recht Länderkompetenz ist, Mitgliedstaatskompetenz, da kann keine Europäische Kommission eingreifen. Diese Bildungsthematik müssen wir in Österreich aber in Gang kriegen, das heißt, da müssen wir vom Kindergarten bis zu den Universitäten massiv investieren, da reicht es nicht, Tablets auszuteilen, möchte ich da nur sagen.
GROẞ: Okay. Ich möchte dann noch zu diesem Thema kommen, nämlich, was es aus Ihrer Sicht konkret braucht, was das Bildungsthema betrifft; aber weil Sie vorhin gesagt haben, dass jedes Land in diese gemeinsame europäische Strategie das einbringt, was es schon hat: Was hätte denn da Österreich aus Ihrer Sicht einzubringen?
KÖSZEGI: Wir haben hervorragende Forscherinnen und Forscher. Es gibt nicht nur Sepp Hochreiter, also ich habe mir gerade gedacht, einige meiner Kollegen wären jetzt sehr entsetzt, dass sie nicht als exzellente - -
GROẞ: Sie haben jetzt die Chance, sie vor den Vorhang zu holen. Bitte nennen Sie sie!
KÖSZEGI: Es gibt so viele, ich möchte jetzt keinen bevorzugen, aber es gibt in Klagenfurt, es gibt in Innsbruck, es gibt in Wien, es gibt in Graz, es gibt in Linz natürlich schon hervorragende Wissenschaftlerinnen und Wissenschaftler, die sich mit Robotik, mit Automatisierung, auch in der Grundlagenforschung beschäftigen. Wir haben das in Europa im Übrigen auch diskutiert – weil auch die neue TU in Linz angesprochen wurde –, wir haben das in Europa diskutiert: Macht es Sinn, einige wenige Zentren in Europa zu machen, also Ressourcen zu poolen und zu sagen: Da investieren wir!, und der Rest liefert quasi in diese wenigen Zentren; oder wollen wir ein dezentrales Netzwerk haben, dass wir dezentral Institutionen stärken, die es jetzt gibt? Und Europa hat sich entschieden, also das war eine lange Auseinandersetzung bei uns in der High-Level Expert Group, wir sind schlussendlich zur Empfehlung gekommen, dieses dezentrale Modell zu wählen und zu sagen: Stärken dort, wo es sie jetzt schon gibt, ausbauen. – Da gibt es in der Strategie zum Beispiel kaum Hinweise auf Schwerpunktsetzungen et cetera, das finde ich schade.
GROẞ: Sie haben gesagt, wir haben hervorragende Leute in diesem Bereich. Besteht die Gefahr, dass diese hervorragenden Leute zunehmend abwandern, weil es woanders mehr Geld gibt, weil es woanders vielleicht leichter ist und weil es weniger Reglementierungen gibt als bei uns?
KÖSZEGI: Noch einmal: Es gibt eine Vielzahl an KI-Anwendungen, von hoch riskant – weil sie Personen betreffen – bis hin zu völlig unriskant, weil sie einen Optimierungsprozess in einem Zementwerk betreffen, wo quasi kein einziger Mensch vorkommt. Das alles sind KI-Anwendungen. Bei diesem einen Teil, wo reglementiert wird, gehen wir in extrem sensible Bereiche hinein, das wird aber europaweit reguliert, da werden wir jetzt in Österreich kein Problem haben. Bei allen anderen Bereichen ging es darum, zum Beispiel Infrastruktur zu schaffen, zu investieren, auch in die Möglichkeit, dass man sichere Datennetzwerke hat, dass man diese auch austauscht, also sowieso in die Dateninfrastruktur investiert, et cetera. Da fehlt es also sozusagen an ganz konkreten Maßnahmen.
GROẞ: Frau Niss, ganz konkret, weil Sie es angesprochen haben: In Ihrem Betrieb – Sie sind mit Miba im Wesentlichen in der Autozulieferindustrie tätig –, woher bekommen denn Sie, erstens, Ihre Fachleute? Und zweitens: Machen Sie alles selber oder kaufen Sie dieses Know-how, diese Dinge auch zu?
NISS: Ja, also natürlich kaufen wir teilweise Software zu und wir entwickeln das dann mit Spezialisten weiter; da bekommen wir die Leute teilweise aus Oberösterreich, sind aber auch froh über eine TU Linz, die kommt, wo neben der Forschung natürlich zusätzliche Fachkräfte und Arbeitskräfte ausgebildet werden sollen, aber wir sind ja international tätig und haben deswegen auch internationale Fachkräfte. Das Thema Ausbildung ist aber natürlich ein ganz wesentliches und wir werden jetzt wirklich auch versuchen, das vom Kindergarten an zu machen, vor allem auch über das Thema digitale Grundbildung, woran wir ja arbeiten, dass eben nicht nur die Tablets in die Schule gebracht werden – da bin ich ja ganz bei Ihnen –, sondern wir müssen die Pädagogen, die Pädagoginnen in dieser Hinsicht ausbilden, wir müssen – und sind ja gerade dabei – die Lehrpläne überarbeiten, damit natürlich auch die Schüler dementsprechend geschult werden – in einem eigenen Fach, ich glaube, das ist ganz, ganz wesentlich. Ein großer Fokus ist meiner Meinung nach – und das ist auch wirklich, sage ich, ein Herzensanliegen von mir selbst –, dass wir mehr Frauen dafür begeistern können, dass sie sich für die technischen Fächer interessieren, vor allem auch für den IKT-Bereich, weil wir da besonders unterrepräsentiert sind. Ich glaube, in Deutschland – und in Österreich ist es nicht sehr viel anders – sind 16 Prozent der KI-Experten Frauen, was natürlich auch eine Auswirkung auf die KI-Fütterung hat, gerade betreffend das Thema Bias von Algorithmen. Ich glaube, das ist auch ganz wesentlich, dass wir mehr junge Frauen und mehr junge Mädchen dafür begeistern, dass das spannende Berufe, dass das zukunftsträchtige Berufe sind, die nämlich ehrlich gesagt auch dazu beitragen können, die Welt etwas fortschrittlicher, etwas besser und auch etwas umweltfreundlicher zu machen.
GROẞ: Digitale Grundbildung, Herr Brandstätter, was ist denn das aus Ihrer Sicht? Was bedeutet das?
BRANDSTÄTTER: Na ja, das ist beides: Das ist Technik, das ist Anwendung, ist aber auch ein Bewusstsein dafür, was man damit macht, wenn man eben mit dem Handy spielt und alle seine Daten herschenkt, anstatt dass man sie verkauft, wie es diejenigen machen, die mit den Daten handeln. Ich glaube, dass jeder von uns da Fehler macht, weil es halt convenient ist, weil es angenehm ist. Ich möchte aber schon noch einmal auf den Punkt kommen: Wenn ich Sie, Frau Professor, richtig verstanden habe, dann haben Sie gesagt, wichtig wäre eine Strategie der Schwerpunktsetzung und die fehlt Ihnen. – Ich glaube, dass das ein Punkt ist. Das Zweite ist die Finanzierung. Auch dieses Thema ist schon ein paar Mal angesprochen worden, und das ist auch etwas, wo wir ein gesellschaftliches Bewusstsein dafür schaffen müssen. Da sind wir dann beim Thema Venture Capital, das ist in Österreich halt überhaupt nicht ausgeprägt, das hätten wir schon früher für andere Bereiche auch gebraucht, aber jetzt ist es noch einmal ein Punkt, wo wir sagen müssen: Wenn wir die Dinge finanzieren wollen und wenn wir vor allem auch junge Leute, Männer und Frauen, anregen wollen, Unternehmen zu gründen, etwas zu entwickeln, dann müssen die das finanzieren und da brauchen wir Venture-Capital-Finanzierung! Das ist ja nicht eine Maßnahme, das sind mehrere Maßnahmen, dass auch eine gewisse Begeisterung entsteht. Ich glaube, da sind wir uns ja alle einig: Die Expertinnen und Experten, die ForscherInnen, die haben wir ja alle in diesem Land – halten müssen wir sie –, aber die Grundvoraussetzungen fehlen und eben die Finanzierung. Es kann ja nicht sein, dass man sagt, jetzt haben wir eine Strategie und es gibt keine Finanzierung dafür, jetzt beschließen wir ein Budget und es ist wieder nicht drinnen – und es vergeht so viel Zeit, das ist mein Problem. (Niss: Aber, Helmut, das stimmt nicht!) – Dass es keine Finanzierung gibt? Im Budget ist nichts drinnen!
NISS: Darf ich da einen Satz dazu sagen: Also wenn wir uns unsere Forschungsförderung anschauen, dann sehen wir, wir geben in diesem Jahr 160 Millionen Euro für Forschung in diesem Bereich aus – wir können immer sagen, es kann mehr sein –, in der angewandten Forschung allein, das ist ganz viel in Basisprogrammen, das ist ganz stark im Bereich Produktion, Energieforschung, IKT der Zukunft, also genau in den Bereichen, die wir vorhin angesprochen haben, aber auch in den Universitäten. Wir haben ja jetzt gerade eine Exzellenzinitiative gestartet und einen Call gemacht, also die Universitäten können sich sozusagen mit Zentren dafür bewerben, und von 36 eingereichten Projekten sind neun Projekte im Bereich der KI; das ist nach Lifesciences die zweithöchste Anzahl, also es ist nicht richtig, dass wir nichts für diesen Bereich ausgeben.
BRANDSTÄTTER: Entschuldigung, nur ein Satz: Das sage nicht ich, das sagen offenbar diese Spitzenforscherinnen und Spitzenforscher: Bittere Enttäuschung, Gefahr für den Standort, wir hinken hinterher. – Also wir haben ein Problem, tun wir nicht darüber hinwegreden. Wir haben ein Problem, also machen wir etwas!
GROẞ: Versuchen wir, das Problem vielleicht noch ein bisschen zu konkretisieren und zu klären, worin dieses Problem Ihrer Ansicht nach tatsächlich besteht. Mangelnde Schwerpunktsetzung ist bereits angesprochen worden. Hätte es aus Ihrer Sicht eine klarere Priorisierung von Maßnahmen, noch konkretere Budgets gebraucht und, wenn ja, in welchem Bereich sollte diese Priorisierung denn stattfinden? – Bitte.
DEIMEK: Ich glaube, ein Teil – und das ist von der Frau Professor schon angeführt worden – ist die Dezentralisierung mit den vielen Querschnittsfunktionen, die wir haben. Dezentralisierung mit Querschnittsfunktionen, also nicht nur Mint-Fächer, Technik und so weiter, sondern auch Juristen und Ähnliches, das ist das, was wirklich wichtig ist. Wir müssen – ich will jetzt nicht sagen: überall – dort, wo wir Experten haben, in diesen Bereichen, diese Zellen, die die Frau Professor angesprochen hat, stärken. Dass wir das nicht tun und vor allem auch nicht vorhaben und nicht planen, zumindest in den nächsten Jahren, das ist ein schwerwiegender Punkt, da sollte man wirklich ansetzen und dort entsprechend fördern. Man soll nicht sagen, Juristen machen keine Grundlagenforschung – die machen das genauso, etwa Haftungsfragen. Beispiel künstliche Intelligenz: Früher hat man gesagt, in Wien wird operiert, der Operateur sitzt in New York. – Der sitzt jetzt nicht mehr in New York, das ist ein Kasterl, das beispielsweise irgendwo in Linz steht und per Internet verbunden ist. Und wenn dann etwas passiert, wie schaut es mit der Haftungsfrage aus? Der gelernte Österreicher sagt: Jetzt lassen wir es einmal passieren und wenn es dann passiert ist, dann schauen wir hinterher, was man machen kann! – Um Jahre, um Lichtjahre zu spät! Vorausschauend! Vorausschauen könnte man auch von der Politik verlangen. Ich habe mich in meinem Zivilberuf 20 Jahre mit ähnlichen Themen beschäftigt, und wir haben immer wieder darauf gesetzt und haben als Firma entsprechend investiert; ob das – früher – die VA Tech oder der Siemens-Konzern war, ist jetzt im ersten Ansatz einmal egal, es geht um die Vorrangigkeit, zu sehen, dass ich da für den Kunden, für die Firma selbst etwas schaffe, was Wert hat, und das gehört natürlich auch entsprechend mit den Universitäten entwickelt. Wenn ich von den Universitäten höre: Wir werden ignoriert oder nicht so bedacht, wie wir uns das vorstellen!, wenn die Firmen das sagen – mehr brauche ich nicht, um zu dokumentieren: Wir sind nicht irgendwie hintennach, sondern wir schaffen es auch nicht, aus dem Hintennach-Sein in eine Aufholposition zu kommen; also der fast follower hat uns schon überholt.
GROẞ: Frau Oberrauner.
OBERRAUNER: Ich möchte auch noch auf die Förderungen, die eben auch andere Bereiche als die Technologie an sich betreffen, eingehen, zum Beispiel das, was ich früher gesagt habe, die Mint-Fächer. Wir haben zum Beispiel im Technologiepark einen Mint-Kindergarten in Planung, in Klagenfurt gibt es das für die Grundschulen – also das ist etwas ganz Wichtiges und erlaubt auch einen gegenderten Umgang mit dieser Thematik. Das Zweite, das ich wichtig finde: Man muss in diesem Zusammenhang auch die Kreativität – deshalb gefällt mir die Dezentralisierung gut – der Forscher und der Entwickler ein bisschen stärken. Wir haben sehr gute Start-ups, aber sie verhungern am Weg dorthin. Sie haben eine gute Idee, haben nicht das Geld, das zu patentieren, werden dann an Amerika oder an China verkauft, und nichts von dieser österreichischen Gedankenleistung bleibt dann bei uns, also der Mehrwert ist dann nicht bei uns. Auf diese Szene sollte man wirklich genauer hinschauen und sich in dieses Umfeld, das wir bei uns haben, einbringen. Wir haben alleine an unserem Standort x Patente, wir haben das I-Phone mitentwickelt – auch über das wird nicht geredet; also es ist nicht bekannt, wie viel schon entwickelt wird. Bei der angewandten Forschung – die so wichtig wäre für die KMUs, die ja immerhin 70 Prozent in Österreich ausmachen, die sich selbst kein Forschungszentrum leisten können – muss ich wirklich sagen, dass wir zwar jetzt noch Ipcei und Förderungen aus der EU haben, aber keinen Wachstumspfad nach oben sehen. Ich glaube, das ist ein ganz großes Versäumnis, denn das ist das Know-how von Österreich. Wir haben zwei große Stärken: Wir sind sehr gut im Forschen und Erfinden und im Kreieren von Dingen, und die zweite Stärke ist, dass wir eine Arbeitswelt haben, die durch die Sozialpartnerschaft eigentlich auch definiert ist – das kommt im EU‑Vorschlag auch nicht vor –, und das sollten wir schon als unsere Kultur in Österreich auch abbilden. Das wäre mir ein wichtiges Anliegen.
GROẞ: Vielleicht abschließend für diese Runde noch: Herr Zorba, wir haben vorhin gehört, dass 2017, glaube ich, der Rat für Robotik und Künstliche Intelligenz von einem SPÖ-Minister, nämlich Leichtfried, ins Leben gerufen worden ist. Inzwischen haben die Minister gewechselt, zuerst war Hofer von der FPÖ zuständig, jetzt teilen sich Gewessler und Schramböck diese Materie. Ist das überhaupt schlau? In Zeiten wie diesen könnte man das besonders hinterfragen. Zieht man da wirklich an einem Strang, oder geht es letztlich nur darum, dass es halt irgendwo auch ein publicityträchtiges Thema ist?
ZORBA: Würde ich jetzt nicht so sagen. Das Thema künstliche Intelligenz ist ja eben nicht nur ein Punkt, den man abarbeiten kann, sondern es ist eine Querschnittsmaterie, und diese Querschnittsmaterien sind halt in den verschiedenen Ministerien.
GROẞ: Aber würde es nicht Sinn machen, dass es in einer Hand ist?
ZORBA: Ich würde das nicht als für sinnvoll erachten, wenn man diesen Punkt nimmt und sagt: Das ist jetzt das Ministerium für künstliche Intelligenz!, und die müssen hinsichtlich Soziales, Energie, Mobilität, Umweltschutz oder in der Forschung alles abdecken. Ich glaube, da haben wir eine falsche Erwartungshaltung. Von meinen VorrednerInnen ist auch die Finanzierung angesprochen worden. Die Finanzierung gab es ja vorher und wird es auch in Zukunft geben. Da gibt es zum Beispiel einen Klimaschutzforschungsschwerpunkt mit 200 Millionen Euro für die nächsten zwei Jahre, bei dem es dann um Energie, Mobilität, Kreislaufwirtschaft geht, aber auch künstliche Intelligenz ein Teil davon ist. Auf diesem Paket steht halt nicht KI oben, und es ist halt nicht nur für KI, sondern es speist sich aus verschiedenen Themen. So, glaube ich, müssen wir künstliche Intelligenz auch überhaupt angehen: also nicht nur das Thema, dieses Schlagwort nehmen, sondern eben die Querschnitte sehen und auch mit denen arbeiten – wie in der Politik, in der Gesellschaft.
GROẞ: Vielen Dank. Frau Köszegi, Faktencheck nach dieser Runde.
KÖSZEGI: Zum einen möchte ich darauf zu sprechen kommen, dass dieser Transformationsprozess überhaupt nicht thematisiert wird. Wenn wir jetzt zum Beispiel das Thema Arbeit hernehmen: Seriöse Studien sagen, dass ungefähr 10 bis 15 Prozent der Arbeitsplätze in der Zukunft automatisiert werden, aber in Wahrheit ist es so, dass fast 90 Prozent der Arbeitsplätze von der Digitalisierung und Automatisierung betroffen sind, dass wir einen enormen Aus- und Weiterbildungsbedarf haben, den öffentliche Institutionen und Schulen auch gar nicht alleine stemmen können. Das heißt, wichtig ist da nicht nur, auf diese 10 Prozent zu schauen, die vielleicht ihren Job verlieren, sondern wir müssen schauen, dass die Menschen in Beschäftigung bleiben können und dass sie die Qualifikationen erwerben können.
GROẞ: Also Sie würden sagen, dass künstliche Intelligenz kein Jobkiller ist?
KÖSZEGI: Nein, glaube ich nicht; die große Herausforderung wird die Transformation sein, dass es manche Jobs nicht mehr geben wird. Wenn wir autonomes Fahren in sicheren Korridoren auf den Autobahnen in den nächsten zehn Jahren vielleicht irgendwann einmal sehen, dann wird es trotzdem noch Lkw-Fahrer brauchen, die sozusagen die letzte Meile fahren, aber dieses Jobprofil eines Lkw-Fahrers wird sich vielleicht verändern, genauso wie sich das Profil eines Arztes, einer Ärztin oder auch das Profil einer Kindergartenpädagogin oder einer Pflegerin verändert.
GROẞ: Aber wie müssen wir Arbeit neu denken, wenn wir das ernst nehmen, was Sie jetzt sagen? Ist künstliche Intelligenz dann eine Ergänzung zu dem, was Menschen jetzt schon machen, oder wie kann man sich das vorstellen?
KÖSZEGI: Es gibt eine Studie vom World Economic Forum, bei der man sich angesehen hat, welche Kompetenzen in bestimmten Jobs gebraucht werden, also einerseits mathematisch-analytische Kompetenzen und andererseits soziale Kompetenzen, und dann hat man sich angesehen, wie sich innerhalb von mehreren Jahren, also sechs, sieben Jahren, die Anzahl der Jobs verändert hat. Das Spannende dabei ist, dass in den letzten Jahren die Anzahl der Jobs dort, wo ganz viele mathematisch-analytische Kompetenzen erforderlich sind, aber kaum soziale Kompetenzen, zurückgegangen ist, und überall dort, wo man einen großen Anteil an sozialen Kompetenzen braucht, die Anzahl der Jobs mehr geworden ist. Das ist auch ganz einfach zu erklären, weil nämlich soziale Kompetenzen nicht einfach zu automatisieren sind; alles, was Kreativität, was Leitungsfähigkeit, Innovationsfähigkeit, Problemlösungsfähigkeit betrifft, ist nicht leicht zu automatisieren. Deswegen möchte ich so gerne eine Lanze dafür brechen, und sagen: In unserem Schulsystem bilden wir die Kinder für eine industrialisierte Gesellschaft des letzten Jahrtausends aus, aber wir brauchen ein neues Schulsystem, nämlich eines, das Menschen in ihren Stärken stärkt und Arbeit auch anders denkt, dass das mehr schätzt, was nur uns Menschen ausmacht und was nur wir Menschen besonders gut können. Das heißt, es braucht natürlich eine Aufwertung der sozialen Kompetenzen, der Managementkompetenzen, der Innovationskompetenzen, und bei der Technologie ist meine Ausgangsfrage immer – ich bin ja Arbeitswissenschaftlerin –: Was soll Technologie tun? Was möchten wir, dass uns die Maschinen abnehmen?, und nicht – nur weil wir es halt entwickeln können –: Was können sie tun? – Das ist für mich ein falscher Zugang.
GROẞ: Ich möchte nur nachfragen, weil mir das vorher schon auf der Zunge gelegen ist: Der berühmte Pflegeroboter, von dem ja so oft die Rede ist – Wird es den dann Ihrer Meinung nach geben oder nicht? Auf der einen Seite kann er natürlich Abhilfe schaffen, denn wir haben dort einen extremen Personalmangel, der Pflegeroboter kann natürlich auch bestimmte Tätigkeiten übernehmen. Auf der anderen Seite, wird er das, was Sie vorhin angesprochen haben, diese sozialen Skills, diese Fähigkeiten, dann möglicherweise nie haben?
KÖSZEGI: Das ist ein wunderbares Beispiel, an dem man sehen kann, wie sich Pflegearbeit in Zukunft verändern könnte. Von dem, wie man sich Pflegeroboter vorstellt, dass eine Person jetzt ausschließlich von so einem Roboter gepflegt wird, der mit dieser Person duschen geht, sie füttert, sie aus dem Bett hebt et cetera, sind wir ganz, ganz weit entfernt, das ist Science Fiction. Es gibt aber sinnvolle Unterstützung in der Pflege, zum Beispiel für das Heben, oder wenn man demenzkranke Personen unterstützen will, dann kann man zum Beispiel kognitives Training anbieten. Man kann mit KI-Systemen unterstützen, dass die Menschen sozial nicht so vereinsamen, wenn man zum Beispiel niederschwellige technologische Möglichkeiten bietet. In der Pandemie hat man es gesehen: Ältere Menschen können keine Tablets bedienen. Gäbe es eine Technologie, die eine Person erinnert und sagt: Sag, möchtest du nicht einmal mit deiner Tochter telefonieren?, und die diese dann auch anruft und, wenn die Tochter nicht abhebt, es später noch einmal probiert – und das tut eine Technologie eigeninitiativ –, dann wären das zum Beispiel große Themenfelder. So können wir das unterstützen: nämlich Pflegekräfte dort unterstützen, wo es möglich ist, sodass sie ihre Arbeit gut und sinnvoll und in Würde für die zu pflegenden Personen machen können.
GROẞ: Ich glaube, unsere Diskussion zeigt ja auch schon, in Ansätzen zumindest, wie schwierig dieses Thema ist, wie komplex es ist, wie vielfältig es ist und wie viel Verständnis man dazu braucht, auf den unterschiedlichsten Ebenen und in den unterschiedlichsten Bereichen. Ich möchte konkret auf das Thema der Kompetenz der Politikerinnen und Politiker, aber auch derer, die zum Beispiel in der Verwaltung sitzen und mit diesen Themen umgehen müssen, zu sprechen kommen. Ohne jetzt jemandem die Kompetenz abzusprechen, aber: Ist es eigentlich nicht eine Überforderung?
KÖSZEGI: Ich habe deswegen auch ein Stück weit Sorge, weil wir, wenn der Regulierungsvorschlag in Österreich in zwei, drei Jahren umgesetzt werden soll, eine ganze Reihe von Menschen in Behörden brauchen, die diese Regulierungseinschätzung, also dieses KI-Assessment, auch tatsächlich machen können. Das heißt, wir brauchen nicht nur die Leute, die diese Technologien anwenden, sondern wir brauchen auch welche, die sie tatsächlich auch verstehen. Wir haben in der KI-Forschung wirklich auch noch ganz grundlegende Probleme, von Erklärbarkeit, von Transparenz, bei denen sich auch Expertinnen und Experten nicht einig sind. Ich finde, das ist schon eine Riesenherausforderung, da die Menschen in der Politik, aber auch in der Verwaltung entsprechend zu qualifizieren; genauso wie – Sie haben es angesprochen – die Lehrerinnen und Lehrer zu qualifizieren. Für mich ist das wirklich eine Querschnittsmaterie. Das kann man nicht in einem Fach unterrichten, sondern quasi jedes Fach hat einen Aspekt, wo diese neuen Technologien auch eingesetzt werden.
GROẞ: Vielleicht fragen wir einmal in die Runde: Wie geht es Ihnen damit, mit dieser Thematik, wenn man jetzt sagen muss, Sie müssen letztlich auch über diese Dinge entscheiden? Fühlen Sie sich ausreichend kompetent dafür? Fühlen Sie sich bei dieser Thematik ausreichend unterstützt? Wie sehen Sie das? – Frau Oberrauner.
OBERRAUNER: Ich glaube, es ist von einem Politiker auch zu viel verlangt, dass er das kann, aber wir haben ja Gott sei Dank im Umfeld Menschen, die das können und die uns da auch beraten. Wir versuchen das so seriös wie möglich zu machen, indem wir es breit aufstellen, und aus dieser Beratung von Experten kommt dann bei uns die Meinungsbildung zustande. Ich in meinem Bereich – als Technologiesprecherin – binde dann alle Bereiche mit ein, die anderen Sprecher mit den Experten, und so kommen wir zu einer Meinungsfindung. Das wird jetzt auch für das neue Gesetz – digitale Wirtschaft und digitale Dienstleistung – notwendig sein. Ich möchte bitte eine Anmerkung zum Bildungssystem machen: Ich finde es sehr, sehr schade, dass, wenn die Tablets kommen, die Kinder auf Microsoft ausgebildet werden, weil kognitiv da etwas anderes passiert, weil sie passive Nutzer sind. Ich plädiere für Open Source, denn Open Source ist auch ein Thema in der KI und das sollten die Kinder lernen. So wie wir früher in unserer Schulzeit die Lexika konsultiert haben, sollten die Kinder lernen: Warum nehme ich dieses Tool? Sie können das hinterfragen, sich überlegen: Was ist gescheit und was nicht? Wie kann ich kreativ sein? – Wenn sie eine Software von vielen, die möglich wären, vorgegeben bekommen, dann lernen sie als passive Nutzer nur das, und ich glaube, das ist für die kognitive Entwicklung ein Rückschritt und kein Fortschritt.
GROẞ: Gibt es dazu vielleicht direkt etwas zu entgegnen? Würden Sie das so für gescheit finden, das unterstützen?
KÖSZEGI: Ich denke – ich habe es vorhin schon gesagt –, dass dieses Stärken in Digital Literacy alleine ohnehin nicht ausreicht, weil wir unsere Kinder grundsätzlich in anderen Kompetenzen quasi ausbilden müssen, wie – Sie haben es auch angesprochen – Problemlösungsfähigkeit. Ich habe selber zwei kleine Kinder, und am liebsten würde ich sie bis zu einem Alter von zehn Jahren komplett von Tablets fernhalten. Das Problem ist nämlich nicht, dass die Kinder das nicht könnten, sondern die wischen eh an den Tablets und Smartphones ihrer Eltern herum, eigentlich wir haben das Problem, dass wir unsere Kinder nicht mehr in der Aufmerksamkeit, nicht mehr in diesen kreativen Fähigkeiten, nicht mehr in den sozialen Kompetenzen schulen. Das ist eigentlich unser Problem.
GROẞ: Gibt es noch Ergänzungen beziehungsweise Wortmeldungen zu dieser Runde?
BRANDSTÄTTER: Ich möchte dazu nur Folgendes sagen: Ich habe als Journalist die Chance gehabt, mehrere Reisen ins Ausland zu machen – das kann ich wirklich nur dringend empfehlen –, und was die Gesichtserkennung betrifft, die habe ich vor vielen Jahren schon in Südkorea gesehen. Zu den anderen Fragen – das, was Sie zur Kreativität sagen, aber auch zur Frage, dass sich eine Gesellschaft als Gesamtes damit beschäftigen muss: Vor vielen Jahren, ich glaube, vor drei oder vier Jahren, hat der damalige Ministerpräsident in Japan eine eigene Kommission eingesetzt, die sich mit den Fragen beschäftigt, und zwar begonnen mit der Technik, aber auch, was das gesellschaftlich und dann juristisch heißt – was auch schon angesprochen worden ist –, weil das alles zusammengehört. Wie gesagt, dass wir vor enormen Veränderungen stehen, das glaube ich, müssen wir den Menschen vermitteln. Niemand wird in zehn Jahren, in 20 Jahren so arbeiten, wie es die Personen heute an der Uni studieren; sie alle werden anders arbeiten. Eine Begeisterung dafür entwickeln, denn anders geht es eh nicht, das würde ich jetzt so wesentlich finden, und wie gesagt, dass wir sehen, wie stark die Veränderungen sind. Die Kreativität, die kann man auch in der Schule lehren und das kann man lernen, aber durch gemeinsames Arbeiten und nicht durch Frontalunterricht, wie wir ihn halt allweil noch so viel haben.
GROẞ: Ganz kurz Frau Niss, dann noch Herr Deimek und Herr Zorba.
NISS: Ganz kurz, da Sie vorhin gefragt haben, ob wir uns richtig dafür vorbereitet fühlen: Ich habe ja im Parlament einen quasi Kurzlehrgang eines Studiums in digitalen Kompetenzen – und den hatten wir jetzt auch, dankenswerterweise vom Parlament gemeinsam mit der TU Wien zur Verfügung gestellt –, angeregt. Ich glaube, das ist sehr wesentlich, und das müssen wir auch noch vertiefen und müssen es allen Abgeordneten, auch in den Landtagen et cetera und – ehrlich gesagt – langfristig auch allen Bürgern und Bürgerinnen anbieten. Ich teile die Ansicht sowohl von Ihnen als auch von Ihnen, dass wir natürlich allen Leuten auch diese Angst vor künstlicher Intelligenz nehmen müssen, damit wir da einen Schritt vorwärts gehen können und sie dementsprechend auch richtig schulen.
DEIMEK: Da Sie nach der Eignung der Politik gefragt haben: Ich erwarte von einem Politiker, dass er ein Problem abstrahieren kann, dass er genau deswegen auch – egal ob bei in einem Telekomgesetz, bei der Eisenbahn, im Verkehr, bei den Wissenschaften und so weiter – überlegen kann, welche grundsätzlichen Positionen er gerne möchte, dass erreicht werden, und dass dann gemeinsam mit den Fachleuten aus dieser abstrakten Position heraus die Ziele und die Maßnahmen definiert werden. Dazu braucht es dann die Experten, das kann nicht der Politiker, aber die Zieldefinierung grundsätzlich, die sollte er, egal welche Ausbildung ein Politiker hat, eigentlich machen können. Wir kommen leider zu wenig in die Position, dass wir abstrakt Zielpositionen definieren oder wie wir es haben wollen. – Arbeitswissenschaften wäre ja dazu ein geeignetes Gebiet, um das zu lernen.
GROẞ: Genau. Abschließend, Herr Zorba.
ZORBA: Vielleicht ein bissel zum Gesellschaftlichen, weil gerade auch die Kinder Thema waren: Ich bin zum Beispiel kein Freund davon, Kindern das Tablet wegzunehmen. Ich glaube, die Aufgabe der Politik und der Erziehungsberechtigten ist es ja, ein Bewusstsein aufzubauen. Die Aufgabe der Politik ist es, Rahmenbedingungen zu setzen, dass die Kinder diese Tablets verwenden können – eben einmal hin- und herzuwischen –, bestenfalls, dass die Dinge, die sie verwenden, schon so reguliert sind, dass mit diesen Daten kein Schindluder betrieben werden kann. Ich glaube, das ist die Aufgabe, die wir als Politiker haben – den Kindern aber die Tablets wegzunehmen oder eine allgemeine Technologiefeindlichkeit, ich glaube, da haben wir in Österreich auch ein bissel ein Problemfeld –, zu vermitteln, dass, wenn jetzt neue Entwicklungen kommen, und die werden kommen, und die kommen schleichend und nicht auf einmal, dass wir da keine Angst vor Dingen haben müssen, aber natürlich mit einer Skepsis herangehen und auch regulieren müssen, wo zu regulieren ist.
GROẞ: Dieses Thema der Technologiefeindlichkeit versus -freundlichkeit möchte ich mir für die nächste Runde aufheben beziehungsweise auch für unseren nächsten Gast. Ich darf mich an dieser Stelle aber sehr, sehr herzlich für Ihren Beitrag, Frau Prof. Köszegi bedanken. Danke schön, dass Sie da waren. Wir haben es heute schon mehrfach gesagt, ich wiederhole es noch einmal: Oft sind wir uns dessen ja gar nicht bewusst, wie häufig wir künstliche Intelligenz in unserem Alltag bereits verwenden. Künstliche Intelligenz wird genutzt, um – wir haben es gehört – Kunden personalisierte Empfehlungen zu geben, Smartphones nutzen künstliche Intelligenz zur optimalen Personalisierung, Übersetzungstools, sowohl geschriebener als auch gesprochener Sprache, stützen sich auf KI, intelligente Thermostate in unseren Haushalten zum Beispiel lernen aus unserem Nutzungsverhalten, um Energie zu sparen und, und, und. KI-Systeme können auch dazu beitragen, Cyberangriffe zum Beispiel zu erkennen und zu bekämpfen. Im Zuge der Coronakrise wurde zum Beispiel künstliche Intelligenz bei intelligenten Wärmebildkameras auf Flughäfen eingesetzt. Wir haben weitere Beispiele aus der Industrie und der Kreativwirtschaft zusammengetragen.
*****
Es folgt eine Videoeinspielung:
Sprecher: Bei Siemens Österreich arbeitet man bereits mit künstlicher Intelligenz. Im Digitallabor des Unternehmens in Wien steht eine Anwendung von KI zu Demonstrationszwecken für Kunden. Der Roboter soll falsch angeordnete Teile erkennen und nur die richtigen auswählen – was einfach klingt, benötigt aber viele Schritte, bis es funktioniert.
Daniel Schall (Siemens Corporate Technology): Also bei einem KI-Projekt betrachten wir in der Regel vier Schritte in einem Prozess: Also beim ersten Schritt werden einmal die Daten gesammelt von einer Produktion, von einer Maschine, das kann zum Beispiel ein Kamerabild sein oder Daten aus der Maschine. Beim zweiten Schritt erfolgt die Analyse der Daten durch einen Experten. Der dritte Schritt ist das Lernen der KI, das heißt, die KI wird trainiert anhand der Trainingsdaten und Beispiele, die es gesehen hat, und der vierte Schritt ist dann das Modell, die KI wiederum zurück in die Produktion zu spielen, und mit den Maschinen zu verknüpfen und quasi die Steuerung zu optimieren.
Sprecher: Um KI zu nutzen und weiterzuentwickeln, müssen bisher getrennt arbeitende Disziplinen nun an einem Strang ziehen.
Lukas Gerhold (Siemens Digital Industries): Experten, die wirklich die Anlage programmieren, die Anlage instand setzen, instand halten, diese Experten müssen wir jetzt mit den Experten der Informatik, der IT zusammenbringen, um hier auch dann im Endeffekt diesen Mehrwert zu heben. Das ist nicht immer ganz reibungslos, diese Experten zusammenzubringen, ist aber gerade der Schritt, den wir hier in der Digitalisierung, in der Industrie machen müssen.
Sprecher: Um weiter Forschung und Entwicklung betreiben zu können, ist den Unternehmen eines besonders wichtig.
Lukas Gerhold: Die Wünsche an die Politik sind definitiv, dass wir eine klare Regelung brauchen, bestmöglich EU-weit, was man jetzt mit künstlicher Intelligenz machen darf und was nicht. Sie müssen sich vorstellen, die meisten unserer Kunden, die Kunden von Siemens, exportieren weltweit, exportieren in die EU, vor allem auch Maschinen und Anlagen, und wenn die jetzt natürlich KI-Applikationen in diese Maschinen und in diese Anlage integrieren, dann brauchen sie einheitliche Regeln, unter welchen Bedingungen jetzt diese Anlage abgenommen werden kann, unter welchen Bedingungen diese Anlage arbeiten darf.
Sprecher: Auch für Werbezwecke wird KI eingesetzt, wie hier bei dieser Kampagne für eine Automarke: Kunden können ein Foto ihres alten Autos hochladen und die KI schlägt in Echtzeit ein neues Modell des Herstellers vor. Aber nicht nur das, die KI beweist auch Humor. Wenn man andere Fotos hochlädt, reagiert das System darauf und antwortet dementsprechend. Hinter dieser Idee steckt Michael Katzlberger. Der KI-Experte setzt auch in einer Kampagne für den Antirassismusverein Zara auf künstliche Intelligenz.
Michael Katzlberger (KI-Experte): Die Idee dahinter war, dass wir versucht haben, Hasspostings zu filtern und in Echtzeit darauf zu reagieren, das heißt, dass der Hassposter quasi sofort eine Antwort kriegt, die ihn beruhigen sollte. Und dafür haben wir eigene ASMR-Videos produziert, das sind Videos, die beruhigenden Charakter haben, und einen vernünftigen Text dazu. Der Erfolg gab uns auch recht, also es gab dann schon sehr viele, die dann aufgrund der überraschenden Antwort das Posting gelöscht oder entschärft haben.
Sprecher: Für KI gibt es viele unterschiedliche Anwendungsgebiete, die in Zukunft nicht mehr aus unserem Leben wegzudenken sein werden.
*****
GROẞ: Gerade noch via Skype im Beitrag zu sehen, jetzt live bei uns in der Sendung: Michael Katzlberger, von 2001 bis 2021 Geschäftsführer von Tunnel 23, einer Agentur für digitale Werbung und Kommunikation in Österreich. Wahrscheinlich waren Sie damals ganz bei den Ersten dabei, oder?
Michael KATZLBERGER: Ja, das ist richtig. – Danke für die Einladung. Ja, gestartet sind wir mit einer ganz simplen Idee. Wir haben uns gedacht: Okay, das Internet wird groß. Wenn Unternehmen beschließen, ins Internet zu gehen, dann wird man dort auch für sie werben müssen. – So simpel war es eigentlich, und das ist dann voll aufgegangen, ja, Gott sei Dank.
GROẞ: Seit 2016 widmen Sie sich intensiv dem Thema KI in der Kreativindustrie, beraten da auch Unternehmen entsprechend, geben Ihr Wissen in Seminaren, Lehrveranstaltungen und Gastvorträgen weiter. Kommen wir auf dieses Thema, das ich vorhin bereits angekündigt habe, zu sprechen, nämlich das Thema Technologieskepsis, mancherorten vielleicht sogar -feindlichkeit in Europa, in Österreich. Ist das das Kernübel, wenn wir schauen, wie offen man zum Beispiel in Asien mit diesen Themen umgeht, aber auch in den USA?
KATZLBERGER: Ja, ich glaube auch. Ich glaube, es braucht eine positive Grundeinstellung zu dieser Technologie, die in Europa oft nicht vorhanden ist oder nur bedingt vorhanden ist. Es gibt ja diesen Spruch: In Japan ist der Roboter dein Freund, in Amerika dein Diener und in Europa dein Feind. (Heiterkeit des Redners.) Meine Aufgabe ist es auch, unter anderem diese Technologie positiv zu besetzen, indem man auch viele positive Beispiele generiert und so auch die junge Zielgruppe dafür begeistert.
GROẞ: Wie kommt man, wenn wir gleich wieder zu den Abgeordneten hier kommen, zu einer derart positiven Grundeinstellung, ohne dass man vielleicht die Schattenseiten deswegen gleich vergisst?
DEIMEK: Es ist ein Werkzeug. Es ist und bleibt ein Werkzeug – ein wichtiges Werkzeug, das man nicht unterschätzen darf, und ich glaube, das Werkzeug ist, wenn es so genutzt wird, wie es gedacht ist, durchaus auch positiv sinnstiftend und kann eine positive Grundstimmung machen. Der Punkt ist: Wenn man dem als Werkzeug, das mich als Person ersetzt, begegnet, dann könnte es sein, aber es liegt eben auch an uns und an der Gesellschaft zu sagen, es ist und bleibt ein Werkzeug, das uns viele Chancen gibt, die wir ohne dieses Werkzeug nicht hätten, weil es einfach zum Beispiel verschiedenste Meinungen, verschiedenstes Wissen innerhalb kurzer Zeit an einem Platz zu einem Zeitpunkt zur Verfügung stellt, aber trotzdem bleibt der Mensch als Entscheidungsträger in letzter Instanz über. Da kann man dem Ganzen nicht irgendwie negativ gegenüberstehen.
GROẞ: Weil immer von einem Silicon Valley in Europa die Rede ist: Ist das aus Ihrer Sicht mehr als ein PR-Gag?
KATZLBERGER: Ja, darf ich noch kurz darauf antworten?
GROẞ: Ja, natürlich!
KATZLBERGER: Also ich glaube, dass das wesentlich mehr als ein Werkzeug ist. Ich glaube, dass künstliche Intelligenz – und mit der Meinung stehe ich nicht alleine da – eine der wichtigsten Erfindungen der Menschheit ist, vergleichbar mit der Erfindung der Elektrizität oder der Dampfmaschine, und dass man noch gar nicht begriffen hat, wie wichtig diese Technologie sozusagen als Basistechnologie, als Universaltechnologie ist, die alle Branchen durchdringt.
DEIMEK: Die Breite ist, glaube ich, tatsächlich noch nicht wirklich bekannt.
KATZLBERGER: Das konnte man ja damals, als die Elektrizität erfunden wurde, auch nicht fassen. Ja, man hat sich gedacht: Okay, ich werde da die Glühbirnen erleuchten und ein paar Maschinen antreiben, aber wir können uns ein Leben ohne Elektrizität gar nicht mehr vorstellen, und ähnlich wird es mit der KI sein.
GROẞ: Das heißt, wenn es nicht nur ein Werkzeug ist und nicht ausschließlich ein Tool ist, was ist es dann? Wie würden Sie es beschreiben oder wie bezeichnen?
KATZLBERGER (erheitert): Also ich würde sagen, das ist die wichtigste Basistechnologie für die nächsten Jahrzehnte. Ich habe ja auch mit Maschinen zu tun – mittlerweile wird man oft belächelt dafür –, die ja auch schon Ideen generieren. Also wir reden da nicht nur über Software, die irgendwie nur passiv ist, sondern über eine, die sehr wohl auch aktiv Ideen haben kann. Wenn Sie sich die Systeme wie die von Open-AI vorstellen, das ist einer der großen Softwarehersteller, mitbegründet unter anderem von Elon Musk: Diese Maschine wurde mit dem ganzen Wikipedia trainiert. Jetzt alleine diese Vorstellung, welche Möglichkeiten da entstehen: eine Maschine zu haben, die über das gesammelte digitale Wissen des Globus verfügt und dann auch noch Ideen hat und so vielleicht zum Wohle der Menschheit beiträgt, also um das positiv zu sehen.
GROẞ: Aber das heißt – weil das heute auch bereits mehrmals so angesprochen worden ist und so ausgedrückt worden ist –, letztlich kann auch künstliche Intelligenz nur das leisten, was der Mensch sozusagen hineingibt oder was der Mensch programmiert – da würde ich einen Widerspruch heraushören –, oder letztlich würde ja dann für mich künstliche Intelligenz eben das auszeichnen, dass Sie letztlich auch von sich selber lernt.
KATZLBERGER: Ja, eh! Aber ist es nicht so, dass das beim Menschen auch so ist? Der Mensch lernt im Laufe seines Lebens, er geht in den Kindergarten, er geht in die Schule, er lernt, er nimmt Wissen auf, und dann generiert er daraus etwas Neues, wenn er ein kreativer Mensch ist. Warum soll das eine Maschine nicht auch können?
GROẞ: Aber vielleicht resultiert daher auch diese Angst, dass sich genau dieses Potenzial dann irgendwann verselbstständigt.
KATZLBERGER: Ja, die Angst, die war immer da. Angst vor neuen Technologien gab es immer schon, und die gibt es nicht nur in Österreich, die gibt es weltweit.
GROẞ: Okay. Frau Oberrauner. – Bitte.
OBERRAUNER: Also das Beispiel, das Sie jetzt gebracht haben, dass das gesamte Wissen des Globus zusammengefasst ist, ist ja einerseits wichtig, aber wichtig ist auch, dass jeder Zugang zu diesem Wissen bekommt (Experte KATZLBERGER: Richtig!), das ist höchst demokratisch und bringt die Menschheit weiter. Ich würde aber sagen, zum menschlichen Gehirn gibt es noch einen Unterschied: Wenn es Zusammenhänge erkennt und ein Ergebnis ermittelt, dann hinterfragt es auch: Ist das gut oder schlecht und für wen? – Das gibt es da nicht, und ich glaube, das ist der springende Punkt: dass wir das differenzierter betrachten. (Experte KATZLBERGER: Ja, das stimmt!) Weil die Ergebnisse - - Es kommt da immer darauf an: Was ist das Ziel, was ist der Zweck und wie verwende ich es? – Deshalb braucht es eine gute Regelung: weil es sonst in diesem Bereich keinen fairen Wettbewerb gibt.
KATZLBERGER: Ja, richtig.
ZORBA: Aber ich glaube, wir erwarten jetzt von einer KI Dinge, die wir oftmals von Menschen nicht erwarten. Wenn ich ein Ergebnis vor mir habe und dann eine Bewertung darüber abgeben muss, ob das gut ist oder schlecht ist, hängt das ja auch vom Menschen ab, und das ist bei einer KI nicht anders: So wie ich sie füttere, so wird sie dann agieren. Da gab es ja in der Vergangenheit auch teilweise eher schwierige Versuche, bei denen Chatbots ins Internet geschickt wurden, die gefüttert wurden von Kommentaren, die dann am Ende unglaublich rassistisch agiert haben. Das ist, glaube ich, auch eine gesellschaftliche Entwicklung, wie man mit den Dingen umgeht – das betrifft dann am Ende aber nicht nur KI, sondern auch Menschen im Allgemeinen. Ich glaube, diese Technologiefeindlichkeit oder die Skepsis ist vielleicht auch ein bisschen ein Generationending, wo man sagt: Die einen wachsen damit auf und haben einmal eine positive Grundeinstellung dazu, und bei vielen ist es ja später im Leben dazugekommen, und da ist ja klar, dass man zuerst einmal eine gewisse ablehnende Haltung hat.
GROẞ: Frau Niss.
NISS: Also zwei Punkte, die ich dazu sagen möchte. Erstens einmal, also wenn wir über das Thema Angst oder Technologiefeindlichkeit reden: Ich glaube, bei den Menschen ist es sehr stark das, was auch die Kollegin Oberrauner vorhin einmal erwähnt hat: Ich glaube, es ist die Angst auch vor dem Arbeitsplatzverlust, ja. Meiner Meinung nach ist es aber so – das galt bis jetzt für alle Revolutionen und auch alle digitalen Revolutionen –, am Ende gab es immer mehr Jobs, und das wird hier auch der Fall sein. Also ich glaube, wir müssen einmal sozusagen aufräumen mit dieser Angst, dass in zehn Jahren die Hälfte aller Menschen arbeitslos dasteht. Im Gegenteil, wir sind momentan konfrontiert mit einem extremen Fachkräfte-, aber auch überhaupt Arbeitskräftemangel. Ich glaube, die Digitalisierung und die künstliche Intelligenz hilft uns da, dass wir diesem Fach- und Arbeitskräftemangel überhaupt noch sozusagen beikommen können. Das ist das eine. Das Zweite ist: Bei den Unternehmen, muss man ja sagen, besteht auch Potenzial nach oben. Gerade bei den kleineren Unternehmen besteht ja auch eine gewisse Angst vor KI, vor dessen Einsatz, dass sich auch der Einsatz von KI nicht immer lohnt et cetera, und ich glaube, auch da müssen wir versuchen, die Unternehmen sozusagen dazu anzuregen, KI auf der einen Seite zu verwenden, aber auch KI ehrlich gesagt weiterzuentwickeln. Da werden wir auch die rechtlichen Rahmenbedingungen und gewisse Freiräume brauchen – wir nennen sie diese sogenannten Sandboxes, wo die Unternehmen einfach einmal versuchen können zu sehen: Was ist denn möglich? Und dann können wir mit diesen Informationen, die wir von den Unternehmen bekommen, auch die richtigen und guten und ethisch korrekten Gesetze machen. – Also ich glaube, das ist ganz wesentlich. Ein Punkt, den ich auch noch erwähnen möchte, um vielleicht auch der Angst der Menschen vor KI et cetera ein bisschen sozusagen begegnen zu können, ist das Thema Gesundheit. Ich meine, wenn wir uns diese Gesamtthematik der Diagnostik anschauen, dann rettet KI Leben! Und ich glaube, mit solchen Beispielen müssten wir viel mehr an die Menschen herantreten, um zu schauen, welche Chance KI auch bietet.
GROẞ: Daran möchte ich direkt anknüpfen. Herr Brandstätter, weil wir von Herrn Katzlberger gerade gehört haben, es ist mehr als ein Tool, es ist die wichtigste Basistechnologie unserer Zeit: Wo sehen denn auch Sie, wenn wir jetzt von einer positiven Vision ausgehen, sozusagen die wesentlichen und die wichtigsten Einsatzgebiete?
BRANDSTÄTTER: Kollegin Niss hat es richtig gesagt, Gesundheit ist natürlich ein wesentliches Thema. Da habe ich einmal in einem Vortrag gehört, der größte Killer in deutschen Spitälern ist der Datenschutz. Der Professor hat das dann so erklärt: Also da kommt einer ins Spital, und bis man auf alle seine Daten, also seine Gesundheitsdaten, draufkommt, ist der möglicherweise an einem Herzinfarkt oder an was auch immer verstorben. Aber warum ist das so – und natürlich bin ich für Datenschutz, aber es geht um das Vertrauen. Ich glaube, die Gefahr ist, dass viele Menschen nicht das Vertrauen haben und sich fragen: Wenn ich jetzt meine Daten hergebe, was macht denn dann die Privatversicherung? Die wissen jetzt, ich hinke ein bisschen, das heißt, die erhöhen mir sofort die Prämie! – Oder das Arbeitsamt hat Informationen über mich und kürzt mir möglicherweise die Arbeitslose et cetera. Das heißt, das Vertrauen ist nicht da, und ich glaube, wir müssen daran arbeiten, den Menschen zu erklären: Was kann sozusagen, wenn die Maschinen miteinander sprechen und dann auch Entscheidungen treffen - - Das ist ja der entscheidende Punkt – die treffen dann Entscheidungen –: Sind das Entscheidungen, wie Kollegin Oberrauner gesagt hat, die vom Gewissen eines Menschen getragen sind, habe ich überhaupt noch Einfluss? – Wenn ich nämlich am Arbeitsamt oder bei einer Behörde bin, kann ich noch immer versuchen, mit der Frau oder dem Mann irgendwie zu reden, aber eine klare Entscheidung von Maschinen ist dann halt Mathematik – und die stimmt natürlich, aber möglicherweise ist sie in der Situation trotzdem falsch. Also da den Human Factor, den menschlichen Faktor, zu erhalten und das aber trotzdem auszunutzen, ich glaube, das ist das Thema – eigentlich das Hauptthema! –, und da sind wir dann als Gesetzgeber zuständig, dass wir Gesetze machen müssen, dass die Menschen darauf vertrauen, dass ihnen dieser Einsatz nicht schadet, sondern ganz im Gegenteil sehr nützt – und Gesundheit ist ein gutes Beispiel.
GROẞ: Genau. – Herr Katzlberger, weil jetzt immer wieder die Rede davon war – eben von diesen ethischen Grundsätzen, aber auch von diesen rechtlichen Rahmenbedingungen, die es braucht –: Welche sind es denn ganz konkret? Man muss dazusagen, wir diskutieren heute an einem Tag, an dem bekannt geworden ist – das ist vielleicht ein kleines Beispiel in diesem Zusammenhang –, dass im Rahmen der E-Medikation über doch einen längeren Zeitraum hinweg einer Reihe von Menschen einfach falsche Dosierungen von Medikamenten angegeben worden sind, was mitunter auch dazu geführt haben könnte – man muss da ja noch immer im Konjunktiv reden –, dass es vielleicht zu Gesundheitsgefährdungen gekommen ist. Ist das ein gutes oder schlechtes Beispiel?
KATZLBERGER: Ich bin da jetzt kein Experte dafür, aber soweit ich weiß, war das ein Softwarefehler, der da passiert ist, also auch menschliches Versagen, und mein Standardspruch in dem Zusammenhang ist immer der: Nicht die künstliche Intelligenz ist böse, sondern der Mensch, der sie missbraucht.
GROẞ: Oder falsch damit umgeht.
KATZLBERGER: Oder falsch damit umgeht.
GROẞ: Oder möglicherweise spart, weil da steht ja auch im Raum, dass man möglicherweise bei der Software ein bisschen gespart hat.
KATZLBERGER: Ja, das wäre möglich. Das wäre möglich, aber wie gesagt, es - -
GROẞ: Aber welche rechtlichen und ethischen Rahmenbedingungen braucht es denn aus Ihrer Sicht?
KATZLBERGER: Ja, es kann da eh nur eine gesamteuropäische Lösung geben, also es macht keinen Sinn, da jetzt im Land herumzutüfteln. Und ja, darüber haben sich schon viele Philosophen Gedanken gemacht. Ich meine, wir haben eh immer wieder die großen Themen am Tisch liegen – das selbstfahrende Auto: Wen bringt es um? – Die Oma oder die Kindergartengruppe? Und früher oder später muss irgendwer die Entscheidungen treffen und einprogrammieren. Ich meine, vor der Frage werden wir stehen.
GROẞ: Das Thema Datenschutz ist immer wieder angesprochen worden, das ist natürlich gerade in unseren Breiten ein immens emotionales Thema. (Experte KATZLBERGER: Ja!) Wir haben das auch im Zusammenhang mit der Gesundheitsthematik gesehen. Wir sehen, dass Länder wie beispielsweise Dänemark, wo man sehr offen und sehr liberal mit diesem Thema umgeht, letztlich zum Beispiel auch die Coronakrise besser bewältigt haben. Was können und sollen wir daraus lernen?
KATZLBERGER: Ja, also was mir schon auffällt, ist: Ich meine, ein Grund, warum uns die Amerikaner und Chinesen auf dem Gebiet links und rechts überholen, ist, weil die das mit dem Datenschutz, wie vorhin schon angesprochen, nicht ganz so ernst nehmen. Die verfügen natürlich jetzt über viel mehr Datenmengen. Da kommt dann auch der Netzwerkeffekt ins Spiel: Je mehr Daten man hat, umso mehr Feedback kriegt man; je mehr Feedback man einholt, umso besser wird die Maschine, umso besser kann sie trainiert werden – bis das ganze Ding so groß ist, dass es uneinholbar groß ist. Und vor der Situation stehen wir ja gerade. Ich meine, wir bashen gegen große Onlinehändler und waren in der Coronakrise sehr froh, dass wir sie hatten. (Brandstätter: Aber Missbrauch gibt es halt leider, nicht?) – Leider, ja.
GROẞ: Wie sollen wir mit dem Thema umgehen, Frau Oberrauner?
OBERRAUNER: Also ich wünsche mir nicht amerikanische Systeme und Rahmenbedingungen für Europa, und schon gar nicht für Österreich, das möchte ich einmal wirklich deutlich - -
GROẞ: Und wahrscheinlich schon gar nicht chinesische in diesem Zusammenhang, oder?
OBERRAUNER: Und schon gar nicht chinesische, ja – also das wäre noch die Steigerungsstufe –, aber ich glaube, es ist wirklich differenziert zu betrachten, weil im Gesundheitsbereich stimme ich zu – wenn ich möglichst viele Daten von diesem Menschen habe, kann ich schneller die Diagnose stellen oder stellt mir vielleicht eh schon die KI einen Ansatz für eine Diagnose –, aber was machen wir mit der Rechtsprechung? Ich möchte nicht, dass ich als Mensch ein Urteil von einem Computer kriege, das ich dann aber als Mensch leben muss. Also es ist einfach zu differenzieren, und unsere Aufgabe ist es, das Risiko in verschiedenen Niveaus – Hochrisiko, weniger riskant und nicht zu regeln – abzuschätzen, und ich glaube, danach müssen wir auch die Gesetzgebung machen. Ich möchte noch einmal auf diese Geschichte replizieren, was du (in Richtung Zorba weisend) betreffend Kinder gesagt hast: Es stimmt schon, man kann den Zugang haben, dass man einem Kind das Tablet nicht wegnimmt, aber man kann auch den Zugang haben, den Psychiatern zuzuhören, was das zum Beispiel für das Nervensystem der Kinder bis zum achten Lebensjahr bedeutet, und man kann natürlich auch den Augenärzten zuhören, die sagen, dass die Kinder schon in dem Alter Sehstörungen kriegen, weil sie sich ständig in dieser Distanz auf ein flimmerndes Kastl konzentrieren. – Also es ist nicht so trivial, wie man sich das manchmal vorstellt. Man muss da schon differenziert und mit sehr viel – gerade politischer – Verantwortung diese Risikostufen und die Rahmenbedingungen durchgehen, und wenn es Regeln gibt, dann gibt es einen fairen Wettbewerb, dann gibt es keine Angst der Bevölkerung vor den Folgen der Technologie. Da haben Sie (in Richtung Katzlberger weisend) nämlich vollkommen recht: Die Technologie an sich ist neutral, der Mensch macht aus der Technologie dann etwas, was nicht passt.
ZORBA: Ergänzend zu dem: Also ich bin ja auch nicht der Meinung, dass man jetzt jedem zweijährigen Kind eine Smartbrille aufsetzt und ein Tablet in die Hand gibt, und es soll dann die ganze Zeit in der virtuellen Realität verbringen, ich glaube aber, wir müssen uns der Zukunft stellen: Kinder werden mit diesen Geräten aufwachsen – sie wachsen heute schon damit auf. Wir müssen Rahmenbedingungen dafür schaffen, und das ist ja auch das Thema, das wir gerade angesprochen haben: Welche Regeln setzen wir uns selber als Gesellschaft? (OBERRAUNER: ... Zeit geben für die Entwicklung!) – Ja, natürlich! Man muss ihnen Zeit geben, und diese Zeit ist ja dann vielleicht auch ein Rahmen, den man vorgibt, und das ist bei der KI genauso so. Ich habe nur bisschen ein Problem damit, wenn man das zu allgemein betrachtet, was KI dürfen soll und was nicht. Das ist ja stark abhängig vom Anwendungsbereich, und je nach Anwendungsbereich gehört da reguliert, weil es ja heute auch nicht anders ist: Wenn ich kritische Infrastruktur habe, dann sind da die Gegebenheiten anders, da gehe ich anders darauf ein, als wenn ich keine kritische Infrastruktur habe, und beim Thema KI wird das genauso so sein. Ich glaube, da passiert viel, da ist ein bisschen viel Nebel da, und ich glaube, den müssen wir ein bisschen wegbekommen.
GROẞ: Wenn wir das Thema ernst nehmen und zurückkommen auf das, was Frau Professor Köszegi gesagt hat, nämlich dass wir Arbeit neu denken müssen, dann müsste man ja in einem nächsten Schritt überhaupt sagen, Herr Katzlberger, wir müssen dann Gesellschaft neu denken. Wenn das so ist, was heißt das aus Ihrer Sicht?
KATZLBERGER: Ja, also ich stimme ihr da völlig zu. Wir müssen da wirklich schon im Kleinkindalter beginnen, und da bringe ich immer gern dieses Beispiel: Also mein Kleiner lernt in der Volksschule häkeln; warum lernt er nicht programmieren? Da wird man es sich mit den Häkellehrerinnen und -lehrern der Nation verscherzen, aber ich fände das wesentlich sinnvoller, um die Kinder an die Mint-Fächer, die ja für uns – also für die nächsten Generationen – so wichtig sind, fit zu machen.
GROẞ: Wie schätzen Sie eigentlich die Situation, was das Thema Arbeit betrifft, ein? Werden wir alle in Zukunft überhaupt noch Jobs haben, werden wir Jobs brauchen? Stichwort arbeitsloses Grundeinkommen – wir müssen auch in diesem Zusammenhang darüber diskutieren.
KATZLBERGER: Ja, ich glaube, wir müssen uns schön langsam von dem Gedanken verabschieden, dass für jeden Arbeit da ist, also dass es in einer Zeit, in der die Automatisierung rasch voranschreitet, zu einer Vollbeschäftigung kommt. Ich meine, die demografische Entwicklung wird da einiges abfangen, denke ich, aber ich glaube nicht, dass für jeden Arbeit da sein wird.
NISS: Ich bin mir da nicht so sicher. Wenn wir uns die Anzahl der Industrieroboter und die Anzahl der Beschäftigten pro Industrieroboter anschauen, dann sehen wir, dass in dem Land – ich glaube, es ist Südkorea –, in dem es die meisten Industrieroboter gibt, die Beschäftigungsquote die höchste ist. Ich glaube nur, dass die große Herausforderung, die wir haben werden, ist, die Leute entsprechend zu schulen, dass wir sozusagen die Leute den neuen Gegebenheiten entsprechend ausbilden. Es gab ja einmal eine Analyse: Ich glaube, 95 Prozent aller Jobs in der Zukunft brauchen Digitalisierung – nicht alle KI, aber Digitalisierung. Das wird die große Herausforderung für unser Bildungssystem sein, aber auch überhaupt für die Gesellschaft, auch dass wir Leute weiterbilden. Es wird auch die Herausforderung für uns Unternehmer sein. Wir machen uns große Gedanken darüber, wie wir die Leute reskillen, upskillen, also wie wir sie sozusagen entsprechend umbilden, damit sie diese digitale Transformation mitmachen können. Vielleicht noch ein Punkt, nur ganz kurz zur Thematik, ab wann Kinder Tablets haben sollen: Ich glaube, jeder hat dazu seine Meinung. Wir geben sie jetzt eh nicht in die Volksschulen. Ganz ehrlich gesagt, die meisten Kinder werden zu Hause mit I-Pads et cetera konfrontiert, denn jetzt setzt man die Kinder nicht mehr vor den Fernseher, sondern man setzt sie vor das I-Pad. Ich bin aber auch bei Kollegen Katzlberger, dass wir, glaube ich, die Kinder langsam und spielerisch ein bisschen an das Thema heranführen müssen. Das können diese kleinen Beebots sein oder was auch immer (KATZLBERGER: Ja, spielerisch!), aber das bedeutet ja nicht, dass man ständig in dieses Tablet hineinschaut. Dieses logische Denken, das, glaube ich, das Wesentliche ist, müssen die Kinder lernen.
GROẞ: Helmut Brandstätter.
BRANDSTÄTTER: Ganz altmodisch gesagt: Unser Gehirn hat sich so entwickelt – und das habe ich bei der Hirnforschung gelernt –, weil wir so schreiben, wie wir schreiben, und so lesen, wie wir lesen. Die Handschrift zu lernen ist für Kinder bei der Herausbildung Gehirns also ganz wesentlich (KATZLBERGER: Ja, selbstverständlich!) – da würde ich schon aufpassen. Man liest darüber, und ich habe auch im Silicon Valley mit Managern darüber diskutiert, dass die ihren Kindern diese Geräte nicht geben, weil sie wollen, dass sie das eben auch noch lernen, auch auswendig lernen et cetera – das ist schon interessant. Ich habe heute im Radio übrigens in einer Sendung gehört, dass – also wenn man an Intelligenztests glaubt – in den letzten 100 Jahren die Menschen weltweit im Schnitt deutlich intelligenter geworden sind. In den letzten Jahren ist es wieder ein bisschen runtergegangen – vielleicht liegt es auch daran. Jetzt ist die Frage, was Intelligenz ist und ob die Tests stimmen. Ich glaube, das Wichtigste ist die Bildung – zu wissen, ich kann lesen, ich kann schreiben, ich kann diese Geräte verwenden –, und für die Politik ist die Aufgabe Vertrauen: Ich vertraue darauf, dass auf meiner E-Card zwar alles gespeichert ist, was ich je an Medikamenten konsumiert habe, aber es wird morgen nicht in der Zeitung stehen, oder es kann nicht am Arbeitsamt oder bei der Versicherung gegen mich verwendet werden. Das, glaube ich, ist eine wesentliche Aufgabe für uns: das Vertrauen in diese neue Entwicklung, in diese Technik, gesetzlich abzusichern.
GROẞ: Stichworte Vertrauen, Politik und künstliche Intelligenz, Herr Katzlberger: Ist das eine Gefahr für die Demokratie oder eine Chance? Wir alle kennen Stichwörter wie zum Beispiel Microtargeting, das in Wahlkämpfen schon vor zehn Jahren eingesetzt worden ist, Social Bots et cetera, et cetera.
KATZLBERGER: Ja, es ist so, dass man natürlich, wenn man Chef einer digitalen Kreativagentur ist, sehr viel mit diesen Themen zu tun hat, damit konfrontiert ist, und es geht dabei ja auch darum, dass man es nicht missbräuchlich verwendet. Natürlich könnte man das. Wenn man Maschinen hat, die automatisch Texte, Botschaften generieren, können diese natürlich auch negativ sind. Das kommt immer auf den Absender an.
GROẞ: Aber wie ist Ihre Einschätzung? Was ist es jetzt unter dem Strich?
KATZLBERGER: Unter dem Strich kann man - -
GROẞ: Sehen Sie mehr das Bedrohungspotenzial, oder sehen Sie das Positive und die Vorteile?
KATZLBERGER: Also ich glaube, wenn es um die Politik geht, sehe ich eher Bedrohungspotenzial, weil man diese Technologie in Wahlkämpfen sehr missbräuchlich verwenden kann, wie man auch im Trump-Wahlkampf schon gesehen hat.
GROẞ: Wie schützen Sie sich davor, Frau Oberrauner?
OBERRAUNER: Davor kann ich mich nur schützen, wenn ich den Algorithmus erkenne, und das wird bei mir nicht der Fall sein, ganz ehrlich, weil ich kein Experte in diesem Bereich bin. Ich glaube aber, es ist auch für den Wettbewerb in der Wirtschaft ganz gleich. Wenn Algorithmen entscheiden, wo man im Angebotskatalog positioniert ist, ist ein Unternehmen, das sich das vielleicht nicht kaufen kann, schon nicht mehr im Spiel. Es ist schon eine Herausforderung für das neue Gesetz, dass wir das klären. Ich glaube, es geht immer auch um die Folgenabschätzung. Das ist mir ganz wichtig. Das ist, glaube ich, überhaupt das wichtigste Wort in diesem Zusammenhang – weil es eben für uns nicht erkennbar ist. Sie sind ein Experte, aber ein normaler Mensch ist das nicht. (KATZLBERGER: Es wird immer schwieriger!) Die Arbeitswelt wollte ich noch kurz ansprechen, wenn ich darf: Die Mechatroniker haben mir erklärt, dass ein Beruf, der früher Mechaniker geheißen hat, durch Digitalisierung wirklich so gefragt ist wie noch nie. Bei uns in der Lehrwerkstätte zum Beispiel kommen auf jeden, der neu anfängt, schon im ersten Lehrjahr mindestens vier Jobangebote. Es geht also, wenn man es sinnvoll bewertet. Die Betriebe brauchen das, weil sie sich ja langsam umstellen, auch die Handwerksbetriebe.
GROẞ: Wir haben einen Aspekt noch gar nicht angesprochen – es hat mich gewundert, dass er von Ihnen gar nicht gekommen ist, Herr Zorba –, nämlich wieder zurückkommend auf die Strategie der Bundesregierung für Künstliche Intelligenz: Was von fast allen Fachleuten positiv hervorgehoben wird, ist der Fokus auf das Thema Global Warming und Sustainability, also Nachhaltigkeit, in diesem Bereich. Artificial intelligence for green: Da gibt es ein Projekt, das bereits im Laufen ist. Wie schätzen Sie diese Thematik und das Potenzial dafür ein? Ich weiß nicht, Herr Katzlberger, ob Sie sich für dieses Thema zuständig fühlen (KATZLBERGER: Eigentlich nicht!), aber vielleicht diskutieren wir das auch noch abschließend, weil das natürlich ein ganz wichtiger Punkt ist – weil Österreich offensichtlich auch noch echte Chancen hat, sich da zu positionieren. – Frau Niss.
NISS: Ich glaube, da haben wir unterschiedliche Bereiche, die man aufzählen kann – einer ist beispielsweise der Weltraumbereich, in dem unsere Unternehmen relativ gut sind, in dem durch die Satelliten auch eine Vielzahl an Daten generiert wird. Das alles zu analysieren und zu verwenden, eben auch genau für das Thema Klimaforschung et cetera, ist ein Anwendungsbereich. Ein anderer Anwendungsbereich ist beispielsweise das Thema Stahlerzeugung, Hochöfen – sozusagen zu wissen, wann welche Energie gebraucht wird, und dementsprechend auch Energie zu kaufen. Das ist das Thema Kostenoptimierung, das Thema Protective Maintenance – also sozusagen vorausschauende Wartung –, das ist das Thema Logistik – also weniger Mobilität, die ja oft oder immer noch CO2-emittierend ist, zu verwenden. Also im gesamten Bereich der Produktion an und für sich – also in der Produktion ressourcenschonend vorzugehen, indem man durch die KI die Maschinen, den ganzen Produktionsprozess optimiert – fallen mir sehr viele Chancen ein.
BRANDSTÄTTER: Ein weiteres Stichwort sind Smart Citys. Ich muss natürlich deutlich weniger Energie erzeugen, wenn ich die Energie besser verteile, wenn ich sie auf jedem Haus erzeuge. Da fehlen mir aber auch ein bisschen die Initiativen. Da könne man durch Förderungen et cetera, durch Gesetzesinitiativen schneller etwas bewegen, weil weniger Stromerzeugung, weniger Energieerzeugung einfach weniger CO2 bedeutet.
GROẞ: Herr Katzlberger, zum Abschluss: Was werden Sie in zehn Jahren machen?
KATZLBERGER: In zehn Jahren – ich glaube, ich werde an Robotern herumschrauben, die die Straße kehren. Also ich träume von kleinen Roboterhunden, die ich programmieren kann, die rund um das Haus laufen und Dienste erledigen.
GROẞ: Das gibt es ja schon, zumindest in Form von Rasenmähern oder Ähnlichem.
KATZLBERGER: Ja, das stimmt. Nein, also - -
GROẞ: Also gehen Ihre Visionen nicht weiter, auch was den Einsatz von künstlicher Intelligenz betrifft?
KATZLBERGER: Doch – ich beschäftige mich jetzt intensiv mit kreativen Maschinen. Ich möchte - -
GROẞ: Was heißt kreativ, ganz konkret?
KATZLBERGER: Dass eine Maschine auch sinnvolle Ideen haben kann – das glaube ich ganz fest.
GROẞ: Also dass sie sozusagen nicht nur einfach das macht, womit man sie füttert – um wieder diesen Gedanken aufzugreifen –, sondern dass sie wirklich - -
KATZLBERGER: Genau – sondern dass sie eigenständig Dinge produziert, die Menschen überraschen: Wir haben das auch mit Bildern probiert, eine Maschine, die Bilder generiert - -
GROẞ: Ich nehme an, Sie gehen davon aus, dass Sie dann positiv überrascht werden.
KATZLBERGER: Musik – das ist auch auf Spotify schon zu hören, ohne da jetzt zu viel Werbung machen zu wollen.
GROẞ: Aber Sie haben keine Angst, dass Sie von diesen Ideen, die diese Maschine oder diese Algorithmen haben, auch einmal negativ überrascht werden könnten?
KATZLBERGER: Ich sehe ja die Gefahren, und ich würde jetzt Fälschungen dort und da auch noch erkennen. Wie gesagt, ich bin ein grenzenloser Optimist. Ich glaube an das Positive und an eine vernünftige Zusammenarbeit zwischen Mensch und Maschine.
GROẞ: Dann sage ich vielen Dank, Herr Katzlberger, und mache vielleicht noch eine Schlussrunde mit der Bitte, es ganz kurz zu machen. Herr Zorba, was glauben Sie: Wenn wir in zehn Jahren in dieser Runde wieder über Artificial Intelligence, über künstliche Intelligenz diskutieren würden, worüber würden wir dann reden? Was ist dann selbstverständlich, und was wird vielleicht immer noch Vision sein?
ZORBA: Ich glaube, viele Dinge, die wir heute schon haben, werden wir weiter haben. Vielleicht ein Punkt, den ich im Sicherheitsbereich sehe – das haben wir heute noch gar nicht angesprochen –: Ich weiß nicht, ob wir in zehn Jahren werden erkennen können, ob ein Deepfake ein Deepfake ist oder nicht. Ich glaube, da kommt auch demokratiepolitisch noch einiges auf uns zu. Ich hoffe, dass wir dann von Deepfakevideos nicht so beeinflusst werden können, dass unsere Demokratie darunter leidet. Das könnte ein Thema sein.
GROẞ: Frau Oberrauner.
OBERRAUNER: Ich glaube, wir reden in zehn Jahren über ein Gleichgewicht zwischen analog und digital.
GROẞ: Was heißt Gleichgewicht?
OBERRAUNER: Das Leben der Menschen und die emotionalen Bedürfnisse und das, was die Digitalisierung in ihrem Leben besser macht.
GROẞ: Herr Deimek.
DEIMEK: Ich glaube, wir werden den Menschen immer wieder dabei haben müssen. Er ist der Entscheidungsträger, man darf ihn nicht außen vor lassen, egal ob in der Gesetzgebung oder dann bei der Entscheidung, denn der Mensch ist der, der greifbar ist. Was im Hintergrund in der Artificial Intelligence läuft, kann man nicht direkt beeinflussen, auch nicht durch Gesetze, sondern eher generell. Der Mensch ist immer direkt da, und auf den müssen wir aufpassen.
GROẞ: Herr Brandstätter.
BRANDSTÄTTER: Japanische Versicherungen haben schon vor vielen Jahren Juristinnen und Juristen entlassen, weil bei Autounfällen et cetera die Maschine berechnet hat, wer möglicherweise schuld ist. Darauf werden sich möglicherweise Gerichtsurteile stützen, und das wird eines der Themen sein. Das heißt, ich glaube, dass wir in den nächsten Jahren draufkommen werden, dass die künstliche Intelligenz weiter in unser Leben vordringt, dass wir uns das überhaupt klarmachen, und da oder dort wird es deswegen Unruhe geben – bei allem Optimismus, den ich im Prinzip auch habe, aber es wird da und dort Unruhe geben, und da wird dann sehr wohl der Gesetzgeber gefragt sein, aber ich gebe Ihnen recht, auch auf europäischer Ebene, weil es sonst keinen Sinn hat.
GROẞ: Frau Niss.
NISS: Also ich glaube erstens einmal, dass wir damit auf der einen Seite zum gesamten Thema Klimawandel sehr viel Positives beitragen können. Ich glaube auch, dass der Mensch weiterhin die Oberhand haben wird – und ehrlich gesagt auch haben muss –, und ich hoffe, dass dadurch auch die Verwaltung noch etwas digitaler sein wird.
GROẞ: Dann sage ich vielen herzlichen Dank für diese Runde, für diese eineinhalbstündige Diskussion zu einem zugegeben nicht ganz einfachen Thema, weil es natürlich auch nicht ganz leicht ist, wirklich zu definieren, worüber wir überhaupt reden, wenn wir über künstliche Intelligenz reden. Ich hoffe, meine Damen und Herren, Sie konnten aus dieser Diskussion einige Erkenntnisse gewinnen. Jedenfalls vielen herzlichen Dank dafür, dass Sie dabei waren, und ich hoffe, Sie sind auch in einem Monat wieder dabei – dann bei der elften Ausgabe von Politik am Ring. Bleiben Sie gesund, und auf Wiedersehen!