ChatGPT & Co: Wie schnell braucht es neue Gesetze?
Details
Info
Soziale Medien, Künstliche Intelligenz... Die technologische Entwicklung schreitet voran. Mit dem Fortschritt stellen sich aber auch Herausforderungen für Gesellschaft und Politik. Wie schnell soll man auf diese Herausforderungen reagieren? Sollen die Technologien möglichst früh reguliert werden? Oder heißt es besser warten, um den technologischen Fortschritt nicht zu sehr zu bremsen?
Gibt es die richtige Geschwindigkeit überhaupt? Über diese Fragen spricht Host Tatjana Lukáš in der aktuellen Folge mit Sabine Theresia Köszegi, Mitglied des "Fachbeirats für Ethik der Künstlichen Intelligenz der UNESCO Kommission Österreich" und des "AI Advisory Boards" der Bundesregierung.
Wenn Ihr Feedback, Fragen oder Themenvorschlägen zum Podcast habt, schreibt uns gerne an: podcast@parlament.gv.at
© Parlamentsdirektion/BEBE Medien
Wo kann man den Podcast hören?
Folgen Sie unserem Podcast auf:
Transkript
Sabine Theresia KÖSZEGI: Man muss auch sagen, dass Europa, die erste große Wirtschaftsregion ist, die so umfangreich KI reguliert weltweit. Da schauen jetzt ganz viele auf uns, unter anderem auch aufgrund der Frage: Ist es nicht so, dass es sehr innovationshemmend ist? Also ich muss eigentlich, um wirklich Auswirkungen verstehen zu können von Technologien, ein Stück weit zuwarten. Ich darf aber nicht zu lange warten. Aber es gibt Bereiche, die natürlich nicht von Europa aus reguliert werden. Da hätte Österreich schon viel früher und auch viel intensiver reagieren müssen.
Jingle: Rund ums Parlament, der Podcast des österreichischen Parlaments.
Tatjana LUKÁŠ: Hallo und herzlich willkommen zu einer neuen Folge von "Rund ums Parlament”, dem Podcast des österreichischen Parlaments. Mein Name ist Tatjana Lukáš, und in dieser Folge geht es um Geschwindigkeit. Genauer gesagt fragen wir uns heute, ist die Gesetzgebung zu schnell oder schnell genug? Reagiert die Politik auf neue Herausforderungen zu langsam, und was ist eigentlich die richtige Geschwindigkeit für die Gesetzgebung? Dazu blicken wir auf eine Entwicklung, die die letzten zwei Jahre enorm an Fahrt aufgenommen hat: Künstliche Intelligenz. Ich habe heute die Ehre, mit Theresia Köszegi über dieses Thema zu sprechen. Sie ist unter anderem Professorin für Arbeitswissenschaft und Organisation an der TU Wien. Sie ist Mitglied des Fachbeirates für Ethik der Künstlichen Intelligenz der UNESCO Kommission Österreich. Und seit Ende 2023 ist sie auch Teil des AI Advisory Board der Bundesregierung. Herzlich willkommen hier im Podcast, Frau Köszegi.
KÖSZEGI: Hallo!
LUKÁŠ: Vielen Dank, dass Sie sich Zeit genommen haben. Sie scheinen eine viel beschäftigte Frau zu sein.
KÖSZEGI: Es ist dicht, dieses Jahr.
LUKÁŠ: Wir sind ja hier im Ausschusslokal, in einem Ausschusslokal, das ich selbst noch nie von innen gesehen habe. Ich freue mich immer, wenn wir neue Räume des Parlaments entdecken dürfen. Würden Sie so lieb sein und vielleicht den Raum kurz beschreiben für uns und unsere Hörerinnen und Hörer?
KÖSZEGI: Sehr gerne! Ich habe meine Sprache wieder gefunden, weil beim Hereinkommen war ich zunächst einmal sprachlos ob dieser Schönheit. Und zwar die Schönheit der drei Glaslüster, die hier hängen. Sie schauen aus wie Himbeeren und sind riesengroß, hell erleuchtet. Der Raum selbst ist sehr gedeckt in Beige und Braun, in, ich nehme mal an, Marmorsteinen gehalten. Ein ovaler, großer Tisch mit ebenfalls – das ist cool! Das schaut aus, als wären das riesige, überdimensionierte Bullaugen an den Wänden. Vielleicht der große Tanker "Parlament”, der in stürmischen und auch ruhigen Gewässern Sicherheit für Demokratie bietet. Vielleicht ist das eine gute Beschreibung. Und dann gibt es noch eine Reihe von wunderbaren großen Fenstern, die mit weißen Vorhängen den Blick nach außen etwas verstecken.
LUKÁŠ: Und in diesen Bullaugen gibt's Darstellungen von Essen. Es gibt Fische, es gibt Hähne, es gibt Brot, es gibt Getreide. Und es scheint deswegen so zu sein, weil hier früher mal das Restaurant angesiedelt war.
KÖSZEGI: Sehr gescheit. Aber sehr dezent gehalten, die Speisen.
LUKÁŠ: Ja, das stimmt, aber schön! Wieder ein schöner Raum im Parlament, wo wir eine gemeinsame Zeit verbringen dürfen. Und jetzt stürzen wir uns aber in das Thema Künstliche Intelligenz, weil das brennt allen unter den Fingernägeln. Die, die es noch nicht verwenden, fürchten sich vielleicht davor oder haben große Visionen. Klopfen wir das ein bisschen ab!
KÖSZEGI: Oder wissen nicht, dass sie es schon längst die ganze Zeit verwenden.
LUKÁŠ: Ja, sehr gut, dann fangen wir an. Seit spätestens Ende 2022 ist Künstliche Intelligenz ein großes Thema. Das können wir mal so festlegen, oder? Dass es mehr in aller Munde ist, im Bewusstsein der Öffentlichkeit. Vielleicht, damit alle Hörerinnen und Hörer auf demselben Niveau starten – könnten Sie uns kurz erklären, was ist Künstliche Intelligenz und warum spricht die ganze Welt darüber?
KÖSZEGI: Der Begriff selbst ist schon in den 50er-Jahren entwickelt worden. Die berühmte Dartmouth Conference, wo sich ein paar Wissenschaftler zusammengetan haben, ich glaube es waren 10. Und die haben die amerikanische Regierung gebeten, ein bisschen Geld zu bekommen für zwei Monate im Sommer, und dann würden sie einer Maschine Intelligenz beibringen. Das war die berühmte Dartmouth Conference. Man hat dann relativ schnell gemerkt, das geht sich in zwei Monaten nicht aus und das ist sich auch dann folglich in den nächsten Jahrzehnten nicht ausgegangen. In der Zwischenzeit hat es auch mehrere AI-Winter gegeben, zumindest einen ganz großen von 30 Jahren.
LUKÁŠ: AI-Winter bedeutet, da war irgendwie ein Stillstand in der Forschung zu bemerken. Oder was heißt das übersetzt?
KÖSZEGI: Genau. Wenn Entwicklungen in eine bestimmte Richtung waren – zum Beispiel der erste Chatbot ELIZA, das war von Weizenbaum ein sehr einfaches Interaktionsprogramm, das mit Menschen interagiert hat, die Probleme geschildert haben, der also quasi therapeutisch war. Oder der erste Roboter et cetera –, immer dann hat es einen Hype gegeben und man hat geglaubt: "Jetzt aber finden wir die Künstliche Intelligenz.” Und dann sind die Erwartungen natürlich wieder realistischer geworden. Es kam immer wieder der Gedanke: "Nein, so einfach können wir das gar nicht implementieren und entwickeln”. Das wechselt sich ein Stück weit immer ab. Und jetzt sind wir gerade in einer Zeit, seit 2016, als AlphaGo gegen Lee Sedol gewonnen hat beim Go-Spiel...
LUKÁŠ: Okay, das ist wichtig, damit alle immer alles verstehen, was wir sprechen. AlphaGo ist wer?
KÖSZEGI: AlphaGo ist ein Computerprogramm, das mit neuronalen Netzen durch Reinforcement Learning sich selber das Go-Spiel praktisch beigebracht hat und dann gegen den amtierenden Weltmeister in einem höchst schwierigen Strategiespiel mit unzähligen Strategiezügen und Möglichkeiten gewonnen hat. Also das war wirklich das erste Mal, wo die Menschheit gedacht hat, so, jetzt haben wir eine Technologie, die uns Menschen in dem schlägt, was wir immer geglaubt haben, dass nur wir Menschen können. Nämlich kreative, strategische Spielzüge zu machen. Das war ein Durchbruch von einer neuen Methode des maschinellen Lernens, die dann tatsächlich in weiterer Folge auch zu vielen Innovationen und Neuerungen geführt hat. Weil Sie es schon vorher erwähnt haben: 2022, das öffentlich zugänglich machen von ChatGPT. Das sind Large Language Models. Also eine Methode, die ganz wesentlich ist für das Sprachverstehen. Und "verstehen” unter Anführungszeichen! Auch nach wie vor sprechen wir hier von Wahrscheinlichkeitsberechnungen. Man kann sich das so vorstellen: Da werden Wörter in mehrdimensionalen Räumen eindeutig in einem Kontext lokalisiert. Die Maschine kann die Koordinaten, wenn man sich das vorstellen will, in Bezug zu den Wörtern rundherum setzen und damit vorhersagen, welche Wörter in welcher Reihenfolge sehr wahrscheinlich kommen. Mit dieser Technologie arbeitet ChatGPT. Aber auch das war ein Riesenfortschritt. In den letzten Jahren haben sich die Einschläge verdichtet an Technologien, Durchbrüchen, die vieles möglich machen. Da sage ich noch ein letztes Wort dazu. Wir sprechen nämlich von einer Industrie-agnostischen Technologie, oder General Purpose Technology. Das ist also eine Technologie, die man sich vorstellen kann, wie der elektrische Strom einmal war: Man kann diese Technologie für ganz viele andere Sachen einsetzen und ganz viel Innovation und Anwendung ermöglichen. So wird auch KI eingeschätzt als eine Technologie, die unabhängig von der Industrie für ganz verschiedene Anwendungen nutzbar ist.
LUKÁŠ: Ich habe gerade denken müssen, als Sie erklärt haben, wie diese Worte in verschiedenen Ebenen verortet werden – Menschen tun das ja genau gleich. Also es ist offensichtlich ein bisschen dem menschlichen Denken nachempfunden. Kann man das als Laie so verstehen? Denn wenn wir zum Beispiel Bücher lesen, verorten wir auch neue Wörter in diesem neuen Kontext und merken sie uns diesbezüglich, oder?
KÖSZEGI: Ja, ich finde es ganz wichtig zu verstehen, dass ein KI-System, egal, ob es jetzt ein Large Language Model ist oder ein Neuronales Netz, am Ende des Tages ein Simulationsmodell ist, wo berechnet wird. Aber es simuliert Kontextualisierung, also das Verstehen von einem Wort im Kontext. Das wird simuliert, aber basiert nach wie vor auf mathematischen Berechnungen. Unser Denken funktioniert auf Basis von Sinn-Verstehen. Und das ist ein riesiger Unterschied. Das heißt, wir haben nicht nur die Pragmatik, sondern auch die Semantik, wir interpretieren Wörter im Kontext und suchen nach Sinn. Das verwenden wir auch in unserer Alltagssprache ständig. Das ergibt keinen Sinn für mich heißt, ich verstehe nicht, was damit gemeint wird. Oder ich verstehe das Verhalten eines anderen Menschen nicht. Oder für mich macht es absolut Sinn. Wir sind Sinn-verarbeitende Wesen. Über Sinn leiten wir auch unsere Entscheidungen und über Sinn kreieren wir auch ein gemeinsames Realitätsverständnis. Das ist ganz unterschiedlich zu dem, wie Maschinen arbeiten. Aus diesem Grund finde ich den Begriff Künstliche Intelligenz massiv irreführend. Wir sollten im Grunde genommen über algorithmische Systeme sprechen. Was diese Systeme gemein haben, ist, dass sie Algorithmen verwenden, Berechnungen. Die sind mit verschiedenen Methoden erzeugt, aber im Grunde genommen sind es Rechenschritte. Und menschliche Intelligenz bedeutet eben Sinn-Verstehen und ist immer auch verbunden mit etwas zutiefst Körperlichem, nämlich unseren Erfahrungen, unseren Emotionen. Das macht den enormen Unterschied.
LUKÁŠ: Vielen Dank für die gute Erklärung. Es ist ganz wichtig, diese Unterscheidung zu treffen, und selten habe ich sie so schön und sinnlich dargebracht gehört, wie jetzt gerade eben. Vielen Dank für die gute Grundlageneinführung. Meine nächste Frage ist, da wir vorher schon einen kurzen Anklang gehört haben, dass KI eigentlich schon oft an Orten ist, wo sie uns gar nicht bewusst wird: Wo wird KI in Österreich bereits eingesetzt?
KÖSZEGI: Also abgesehen davon, dass wir es auf unseren Rechnern und auf unseren Smartphones haben, jeglicher Suchalgorithmus, den wir verwenden im Internet, diese ganzen Vorschlagsysteme, wenn wir einkaufen gehen auf Online- Plattformen, die ganzen Social-Media-Algorithmen und algorithmische Systeme – abgesehen davon, dass wir ihnen da jederzeit begegnen, wird es zum Beispiel in Versicherungen eingesetzt, um Schadenseinmeldungen zu machen. Es wird eingesetzt zur Betrugsbekämpfung, vermutlich auch in den Finanzämtern. Da wird es vermutlich schon zur Mustererkennung und Korruptionsbekämpfung eingesetzt. Vielleicht noch nicht implementiert, aber in Pilotphasen wird sicher in all diesen Bereichen, im öffentlichen Bereich, auch schon damit gearbeitet. Zur Effizienzsteigerung von Verwaltungsabläufen wird KI verwendet. Es ist viel häufiger schon im Einsatz als wir uns das denken. Aber im Grunde genommen, wenn wir uns immer wieder herholen, dass es nicht eine Intelligenz ist, wie wir sie unter menschlicher Intelligenz verstehen, sondern eine Form von automatisierten Abläufen und Datenverarbeitung, -prozessierung und -entscheidung, dann kann man sich denken, überall dort, wo diese Daten auch vorhanden sind, wo digitalisiert wurde, wird mit diesen Daten auch vermutlich über KI-Modelle, -Systeme gearbeitet.
LUKÁŠ: Und wissen Sie, ob hier im Parlament auch schon drüber nachgedacht wird, dass KI eingesetzt werden soll?
KÖSZEGI: Ich war bei einer Tagung der Stenographinnen und Stenographen zur Protokollierung von Parlamentssitzungen und Untersuchungsausschüssen. Auch hier wird natürlich nachgedacht, sich unterstützen zu lassen von automatischer Spracherkennung bei der Erstellung von stenographischen Protokollen. Und aber auch zur Implementierung von Barrierefreiheit, zum Beispiel bei Echtzeit-Spracherkennung und dann eben -Darstellung von gesprochener Sprache in Schriftform. Das sind Dinge, wo man sich vorstellen kann, wie Technologie auch hier im Parlament genutzt wird mit dieser Anforderung – und das habe ich so spannend gefunden –, dass Transparenz ein ganz wichtiger gesellschaftlicher Wert ist und natürlich auch im Parlament der Begriff Wahrheit eine große Rolle spielt, der Begriff auch der Echtheit. Im Zusammenhang mit Technologie gibt es daher natürlich sehr viele Fragen: Was wird genau aufgezeichnet? Ich habe gelernt, in stenographischen Protokollen wird ja nicht nur zum Beispiel der Vortrag aufgezeichnet, sondern auch Zwischenrufe aufgezeichnet und darüber hinaus sogar zusätzliche Informationen wie Gestik et cetera, falls das in der Debatte eine Bedeutung hat. Das heißt, man muss sich eben diese Frage stellen, inwieweit werden da tatsächlich alle Informationen wahrheitsgemäß auch automatisiert protokolliert? Fragen, wie zum Beispiel werden Dialekte auch erkannt, treten hier auf. Und dann natürlich, wenn das alles digitalisiert ist, auch die Frage der Manipulation. Wie manipulierfähig ist das eigentlich? Plötzlich wird etwas zu einem Cybersecurity-Problem, wenn automatisiert wird. Das muss man sich ja auch überlegen.
LUKÁŠ: Jetzt interessiert es mich aber noch, wie die Protokollanten und Protokollantinnen darauf reagiert haben, dass diese KI möglicherweise in Anwendung kommt. Hat es da irgendwelche Reaktionen gegeben?
KÖSZEGI: Ja, natürlich, die setzen sich ja viel damit auseinander. Aus der Sicht der betroffenen Protokollantinnen, Protokollanten ist es eine Frage, inwieweit diese Technologie ihnen eine Arbeitserleichterung bringt. Aber natürlich kratzt das auch am professionellen Selbstverständnis. Wenn meine Tätigkeit automatisiert werden kann, kann das wirklich reduziert werden auf den simplen Akt – simpel ist er ja nicht –, aber auf diesen Akt des Verschriftlichen von gesprochenem Wort? Und was da sehr deutlich wird, ist, dass natürlich hinter dieser Rolle des stenographischen Protokoll Erstellens eine ganz wichtige berufliche Identität steckt, die sehr viel mit einer Haltung zur Demokratie, mit Transparenz, mit einer Werthaltung, mit professionellem Engagement zu tun hat, die natürlich nicht so einfach ersetzbar ist und einfach austauschbar ist. Da ist viel mehr hinter dieser Rolle als einfach nur das Verschriftlichen. Das wäre eine Verkürzung, eine massive Verkürzung. Das ist sichtbar geworden. Was ich auch spannend finde: Ich bin Arbeitswissenschaftlerinnen. Wenn Sie gewisse Teilaufgaben automatisieren, erfordert plötzlich der Rest der Arbeit für den Menschen andere Anforderungen und vielleicht sogar auch Kompetenzen. Und wenn Sie zum Beispiel ein automatisiert erstelltes Protokoll haben, also nicht mehr selbst transkribieren, sondern Sie haben ein automatisiert erstelltes Protokoll, brauchen Sie ein viel höheres Aufmerksamkeitslevel, um das Protokoll zu korrigieren. Weil in den Nuancen, zum Beispiel in den Wörtern, die eventuell nicht erkannt werden, oder bei Übersetzungen kennen wir es auch, wo dann bestimmte Nuancen verloren gehen – das erfordert sehr viel Aufmerksamkeit, genau das zu kontrollieren. Nicht zu überlesen, wo vielleicht das System unscharf war, das automatisierte System, und ein ganz wesentlicher Ton auch verloren geht. Das kann man sich gut vorstellen. Wenn ich nur mehr kontrolliere, brauche ich ein anderes Aufmerksamkeitslevel, das ist ermüdender. Da brauche ich vielleicht mehr Pausen. Oder ich brauche ein anderes Sprachverständnis oder andere Kompetenzen, um genau das wiedergutzumachen. Das darf man nicht vergessen. Wie ich vorhin schon erwähnt habe, es gibt ein wunderbares Paper, auch im Zusammenhang mit Demokratie. Wenn man Wahlen und Stimmzettel händisch auszählt, da haben wir ein System, wie wir Wahlaufsicht machen, wie viele Personen von welchen Parteien in den einzelnen Wahllokalen sind. Aber im Grunde genommen ist das eine sehr einfache Tätigkeit, für die man nicht geschult sein muss oder die man sehr einfach erlernen kann. Wenn man automatisierte Wahlauszählungen macht, wird plötzlich das Problem ein höchst komplexes Cybersecurity-Problem, wo ich nicht mehr einfach geschulte Menschen einsetzen kann, sondern ich brauche KI-Experten, die sich vor Angriffen von außen, vor Wahlmanipulation et cetera schützen. Das heißt, die Frage ist, wie viel tatsächlich an Zeit oder an ökonomischen Ressourcen man sich spart, wenn man automatisiert, weil man sich mit der Automatisierung ganz andere Themen, Probleme und so weiter einhandelt. Das ist ein spannender Aspekt, gerade auch im Zusammenhang hier.
LUKÁŠ: Ich finde, Sie haben jetzt schon einige Herausforderungen angesprochen, mit denen wir als Gesellschaft konfrontiert sind, sobald KI eingesetzt wird. Erstens dieses Selbstverständnis der Menschen in ihrer Arbeit und die Identität, die sie daraus ziehen. Andererseits mehr Arbeitsaufwand, der möglicherweise ganz einfach menschlich erledigt werden könnte. Wenn man das so hört, bekommt man schon den Eindruck, Regulierungen sind wichtig, um das Ganze in eine gewisse Bahn zu lenken wegen möglicher Angriffe oder schlechter Verwendung der Technologien. Welche Regulierungen gibt es denn da bereits?
KÖSZEGI: Es gibt eine ganze Reihe von bestehenden Gesetzen, die natürlich jetzt auch auf KI greifen. Es gibt die Datenschutzgrundverordnung, die mit dem Umgang von Daten und personenbezogenen Daten recht klar anleitet, dass man hier Privatsphäre sicherstellen muss. Es gibt die ganzen Liability-Gesetzgebungen, also für Produkthaftung, Haftungsgesetzgebungen in unterschiedlichsten Bereichen, die zum Beispiel festlegen, wenn ich ein Produkt oder eine Dienstleistung verkaufe, dann muss die bestimmte Kriterien beinhalten. All diese Dinge greifen natürlich auch. Aber im Spezifischen zum Thema Künstliche Intelligenz und deren Einsatz dann in so vielfältigen Anwendungen, da braucht es bestimmte neue Regulierungen, die wir noch nicht haben, aber wo das Europäische Parlament gemeinsam mit dem Europäischen Rat und der Europäischen Kommission im Trilog zu einem Beschluss gekommen sind. Es gibt einen Regulierungsentwurf, der auch jetzt beschlossen ist im Trilog und der in zwei Jahren in Europa implementiert wird.
LUKÁŠ: Dem werden wir noch zu sprechen kommen. Aber jetzt mit Blick auf die Sozialen Medien, die ja wirklich unsere gesamte Gesellschaft verändert haben und immer noch dabei sind, da kamen die Regulierungen oft recht spät, hatte man als Bürger oder Bürgerin den Eindruck. Online-Plattformen wurden so gut wie gar nicht reguliert, beziehungsweise in die Verantwortung genommen, wie man so oft gelesen hat. Und erst jetzt hat die EU, wie Sie gerade erzählt haben, mit dem Digital Markets Act und dem Digital Service Act wirksame Instrumente geschaffen. Wie sehen Sie das mit dem AI-Act? Kommt der gerade noch rechtzeitig 2025? Das ist dann schon wieder nächstes Jahr. Dieses Jahr soll es die Welt umwälzen. Wie schätzen Sie das ein mit den Regulierungen? Sind wir da ein bisschen zu langsam? Ist es schwierig, sich auf den Ebenen zu einigen, sodass es allen passt, und hinkt man da immer der Entwicklung hinterher?
KÖSZEGI: Gerade bei disruptiven Technologien ist es eben ganz schwierig vorherzusagen, wann die kommen. Das ist ja genau das Element von disruptiven Innovationen. Man muss auch sagen, dass Europa die erste große Wirtschaftsregion ist, die so umfangreich KI reguliert, weltweit. So gesehen sind wir Frontrunner. Kanada hat zum Beispiel ein ähnliches Regulierungskonzept in der Schublade, wartet aber jetzt, wie es Europa damit geht. Da schauen jetzt ganz viele auf uns und schauen auch, wie wirkt sich das aus. Unter anderem auch aufgrund dieser Frage, ist es nicht so, dass es sehr innovationshemmend ist? Und das ist tatsächlich eine kritische Frage. Ich hole jetzt ein bisschen aus, weil ich finde, dass es wichtig ist zu verstehen, wie ist denn dieser Zusammenhang mit Regulierung und Innovation? Wir haben Beispiele gesehen, wo Regulierung überschießend war und zu ganz negativen Konsequenz geführt hat. Eigentlich war das eine positive Absicht der Regulierung. Zum Schutz von Gesundheit zum Beispiel und Verhinderung von Kriminalität hat man die Prohibition in Amerika eingeführt. Das hat eigentlich ganz negative Konsequenzen gehabt. Diese Regulierung hat eigentlich genau das Gegenteil bewirkt von dem, was man bewirken wollte. Das ist ein Beispiel, wo Regulierung überschießend war. Ein anderes Beispiel ist The Great Smog of London in den 50er-Jahren, ich glaube, 1956 war das. London ist stark gewachsen, war mit Kohle-Öfen ohnehin schon Smog-belastet. Und dann hat man auch noch in der Stadt einfach die elektronischen Straßenbahnen durch Dieselantrieb ersetzt, durch Busse. Es kam dann aufgrund einer spezifischen Wettersituation zu diesem großen Smog im Dezember. Bei diesem Ereignis sind tausende Menschen verstorben, zehntausende Menschen haben Atemnot bekommen. Das ist ein Beispiel dafür, da hätte man schon sehen können, dass man eigentlich regulieren müsste, etwas verbieten müsste. Es hat dann später auch eine Clean-Air-Regulierung gegeben, aber erst nach einem fatalen Ereignis. Und gerade bei General Purpose Technologies, also bei Technologien wie bei KI, wo wir nicht genau abschätzen können, welche Auswirkungen das haben wird, gibt es das sogenannte Collingridge-Dilemma. Am Beginn, wo ich noch gut kontrollieren und regulieren könnte, kenne ich die Auswirkungen noch nicht. Und wenn ich da zu früh reingehe, dann kann es sein, dass ich Innovationen abwürge und verhindere. Gleichzeitig, und das haben wir bei Sozialen Medien gesehen, als Facebook das erste Mal der Öffentlichkeit vorgestellt wurde, da hatte kein Mensch eine Idee, welchen Impact Social Media irgendwann zehn Jahre oder 15 Jahre später auf unsere Demokratien auch haben werden. Das heißt, wenn ich zu lange warte mit Regulierung, ist die Technologie schon so weit implementiert, dass ich sie nicht mehr kontrollieren kann. Das ist das Collingridge-Dilemma. Ich muss eigentlich, um wirklich Auswirkungen verstehen zu können, von Technologien ein Stück weit zuwarten. Ich darf aber nicht so lange warten, weil ich sie dann nicht mehr zurücknehmen kann. Das heißt, es gibt eine Zeitspanne, die optimal ist für die Regulierung. Nämlich einerseits, wenn man schon absehen kann, welche Auswirkungen eine Technologie haben könnte. Und gleichzeitig aber noch früh genug, um tatsächlich noch kontrollieren zu können. Meiner Einschätzung nach: 2016 hat es die ersten Ethikrichtlinien zur KI gegeben, das ist die Montreal Declaration gewesen, das war 2016. Da sind Wissenschafter:innen in Montreal rausgegangen, haben gesagt, diese Technologie müssen wir regulieren, weil da bestehen grundlegende Gefahren für die Menschen. 2018 hat die Europäische Kommission bereits die "High-level expert group on artificial intelligence” eingerichtet, bei der ich mitarbeiten durfte und wo wir dann die europäischen Ethikrichtlinien entwickelt haben und auch die Grundlage für den Regulierungsentwurf. Jetzt sind wir 2022, wo der erste Entwurf vorgestellt wurde und '23 jetzt beschlossen wurde, '25 wird er implementiert. Darin vorgesehen ist eine Risikoeinschätzung im Wesentlichen, der Entwurf selbst ist eine Risikoeinschätzung der Technologie. Und zwar nicht der Technologie an sich, sondern eigentlich der implementierten Anwendungen. Das ist ein Riesenunterschied. Es geht niemand her und sagt, du darfst keine Neuronalen Netze verwenden oder du darfst kein LLM programmieren. Sondern man sagt, wenn du ein LLM, also ein Large Language Model oder ein Neuronales Netz verwenden willst, um automatisierte Entscheidungen zu treffen, dann musst du zeigen, dass dieses System keine negativen Auswirkungen auf die Grundrechte der Menschen und auf die europäische Menschenrechtscharta oder existierende Gesetze hat. Du musst das einfach zeigen können. Bei ganz vielen Anwendungen ist es komplett fraglos, weil da geht es um Optimierung von zum Beispiel Energie in völlig automatisierten Produktionsprozessen. Da wird das keinen direkten Einfluss haben, ob da ein Algorithmus rennt oder nicht. In anderen Anwendungsbereichen, wie zum Beispiel zur Diagnose von Krebs, kann man natürlich sagen, wenn dieses System fehlerhaft oder schadhaft ist, hat das massive Auswirkungen auf den Menschen. Wir haben ja ein Medizinproduktegesetz. Da braucht es dann einfach eine Adaptierung noch, da braucht es dann einfach eine zusätzliche Zertifizierung, dass man zeigen kann, dieser Algorithmus ist sicher. Der diskriminiert zum Beispiel keine Menschen, weil ich deren Daten oder Daten von diesen Populationen gar nicht berücksichtigt habe. Und, auch ganz wichtig zum Thema Innovation, es gibt Regulatory Sandboxes, so heißen die. Das heißt, die Kommission hat vorgesehen, dass wir dort, wo wir uns nicht sicher sind, das Risiko noch nicht einschätzen können, schaffen wir wie eine Sandbox und einen sicheren Rahmen, wo wir testen können. Wo wir die Auswirkungen der Technologie in einem kontrollierten Bereich testen können. Diese Erfahrungen nützen uns dann, um später zu sagen, kein Problem, wir können das implementieren, auch breit ausrollen. Oder wir können sagen, nein, da müssen wir nachschärfen, da braucht es zum Beispiel bestimmte Maßnahmen, damit das Produkt sicher ist.
LUKÁŠ: Also eine Sandkiste, wo man ein bisschen bauen und ausprobieren kann.
KÖSZEGI: Genau.
LUKÁŠ: Sehr nett! Danke, dass Sie uns das so gut dargelegt haben, die Entwicklung der Regulierungsversuche, muss man ja sagen. Die eine Frage, die uns Österreicherinnen und Österreicher schon interessiert, ist, hätte Österreich als Nationalstaat das Thema aus Ihrer Sicht schon vorher anfassen sollen?
KÖSZEGI: Es hat einen österreichischen Rat für Robotik und KI gegeben, wo man sich eigentlich bemüht hat, das Thema früh genug anzugreifen. Es hat nur dann leider zwei Regierungsumbildungen gegeben und die Arbeit wurde sehr dadurch erschwert. Aber es gibt Bereiche, die natürlich nicht von Europa aus reguliert werden können und auch nicht werden. Das sind Bereiche wie Bildung. Da hätte Österreich schon viel früher und auch viel intensiver reagieren müssen. Wie bringe ich insgesamt mehr Menschen in den MINT-Bereich, Mathematik, Informationstechnologie, Naturwissenschaften und Technik? Wie bringe ich insbesondere auch mehr Frauen dort in diesen Bereich, um das inklusiver zu machen? In dem Bereich Forschungsförderung hätte man deutlich mehr auch Akzente setzen können, in der Technologieforschung hier. Im Bereich der Bürger:innenbeteiligung, um diese Digital Literacy zu stärken. Das heißt, die Fähigkeit der Menschen, diese Technologie zu nutzen und damit auch eine faire Teilhabe an der Gesellschaft zu haben. Auch hier wieder zu schauen, dass das inklusiv wird. Das sind Bereiche, da hätte Österreich schon mehr machen können und soll es in Zukunft auch machen. Es wird wichtig sein, auf die Arbeitsmarktintegration zu schauen. Was tut man in der Umbauphase jetzt? Es wird kein Stein auf dem anderen bleiben in den nächsten Jahren auf den Arbeitsmärkten. Es werden alle Jobs davon betroffen sein. Nicht, dass die alle wegrationalisiert werden, aber in vielen Jobs wird diese Technologie eine Rolle spielen. Es braucht ein Upskilling von den Menschen, es braucht eine bestimmte Kompetenz, um mit den Tools, auch zusätzlich zu den professionellen Kompetenzen, die es gibt, umgehen zu können. Diese Transitionsphase wird schwierig werden, da braucht es Maßnahmen zur Unterstützung. Ich muss die Menschen in Beschäftigung halten können. Da braucht es gute, kluge Maßnahmen, um diese Herausforderungen, die auf uns zukommen, auch gut zu meistern, ohne die Ungleichheitsschere, die es ohnehin schon gibt, noch weiter aufzumachen.
LUKÁŠ: Es geht nicht nur um die Regulierung von KI. Es geht auch um das Schaffen eines Umfeldes, in dem man mit KI friedlich quasi zusammenleben kann.
KÖSZEGI: Ja, oder die Herausforderungen, die kommen werden, aufgrund der Automatisierung vieler kognitiver Arbeitsplätze, also eben Wissensarbeitsplätze, um die als Gesellschaft gut zu bewältigen. Noch ein Beispiel: Rationalisierungsgewinne haben Sie dort, wo Sie automatisieren können durch KI-Technologie. Diese Gewinne haben Sie aber nicht in allen Bereichen, wo Sie ganz viel soziale Kompetenzen brauchen, zum Beispiel in der Pflege. Jetzt wissen wir aber, dass genau das eine Riesenherausforderung ist. Die Politik muss sich überlegen, wie sie die Rationalisierungsgewinne auch in jene Bereiche umverteilt der Gesellschaft, die nicht von der Technologie so stark profitieren können, aber die wir als Gesellschaft brauchen, eben zum Beispiel die Pflege älterer Menschen, die Kinderbetreuung et cetera. Das sind die großen Herausforderungen. Da geht es natürlich um große Fragen.
LUKÁŠ: Wir haben drei kleine Fragen für Sie, um Sie ein bisschen besser kennenzulernen, bevor wir weitergehen im Thema. Jeder Interviewgast und jede -gästin bekommt sie gestellt. Die erste lautet: Frühling oder Herbst?
KÖSZEGI: Ich liebe den Herbst.
LUKÁŠ: Wegen der Farben?
KÖSZEGI: Wegen der Reife.
LUKÁŠ: Wegen der Reife, schöne Antwort. Kompromiss oder beste Lösung?
KÖSZEGI: Selbstverständlich nur die beste Lösung.
LUKÁŠ: Und wo fängt für Sie Demokratie an?
KÖSZEGI: Bei den Minderheitenrechten.
LUKÁŠ: Jetzt waren wir eigentlich, bevor wir in diese drei Fragen eingestiegen sind, schon mitten in der nächsten Frage, in der Beantwortung. Nämlich: Wie gut sind wir in Österreich und der EU auf die Herausforderungen, die KI mit sich bringt, vorbereitet? Ich habe oft das Gefühl, dadurch, dass diese Zukunft so schwammig ist – niemand kann dort hinblicken und sehen, wie sie genau ausschaut – ist es sehr schwierig, alles abzuschätzen, was bis dahin zu tun und zu erledigen ist. Wie sehen Sie das?
KÖSZEGI: Ich kann da auch wieder nur vergleichen mit anderen Ländern. Ich war zum Beispiel auf einer ganz spannenden KI-Studienreise mit dem BMK, also mit dem Klimaschutzministerium, mit vielen Forscher:innen und Kolleg:innen von Österreich, in Kanada. Kanada hat es geschafft, zwischen Montreal und Toronto, auf dieser Achse, den drittgrößten AI-Hub in Nordamerika aufzubauen. Neben dem Silicon Valley, das wir alle kennen, und der Boston Area, gibt es jetzt diesen Riesen-AI-Hub in Kanada. Kanada hat das nicht gemacht, weil sie die Politik verfolgen "Anything goes”, sondern in der Montreal Declaration of ethical AI haben sie ganz klar gesagt, wir wollen diese Technologie weiterentwickeln und nutzen, die Potenziale ausschöpfen, aber wir wollen das ethisch und gut machen. Sie haben in vielen Dingen einfach ganz großartig viel gut gemacht. Nämlich zum Beispiel eine proaktive Einwanderungspolitik, um Talente anzuziehen, damit man das überhaupt schaffen kann. In einer Art und Weise, die habe ich spannend gefunden. In Montreal, die Gehälter sind nicht konkurrenzfähig zum Silicon Valley, weil das Lohnniveau viel niedriger ist. Trotzdem kriegen sie genügend Leute, auch international, die bei ihnen arbeiten, studieren und in diesem Tech-Bereich arbeiten wollen. Und zwar deswegen, weil sie gesagt haben, wir haben da so viele Fabriken herumstehen, Industrialisierung, postindustrielle Zeit, wir bauen da einfach leistbare Wohnungen hin mit ganz toller Infrastruktur. Alles, was man sich wünscht, Fitnessstudio in der Nähe, Kinderbetreuung, coole Restaurants, einfach schöne Parks, wunderschönes, leistbares Wohnen. Und wenn man sich es dann aussuchen kann und sagt, okay, ich habe eine günstige Wohnung, ich habe alles, was ich brauche, um mit meiner Familie dorthin zu ziehen, damit es uns gut geht und ein Gehalt, mit dem ich mir ein gutes Leben leisten kann, dann reicht das. Dann muss das nicht das allerbeste Gehalt sein. Mit diesen Dingen arbeiten sie. Ein ganzheitliches Konzept mit Investitionen, wo man schon schaut, dass Universitäten mit der Wirtschaft und mit öffentlichen Einrichtungen Innovationshubs bilden. Strukturell wurde da ganz viel gemacht, um dieses Thema voranzubringen, und gleichzeitig aber auch sehr breit informiert. Die Digital Literacy noch mal, also die Fähigkeiten, mit diesen Technologien auch umzugehen und sie zu nutzen, wurde sehr breit aufgesetzt. Da gibt es viele Dinge, die man sich abschauen kann. Für mich ist Kanada ein wunderschönes Beispiel. Man kann aber auch nach Estland gehen, die ganz weit vorne sind in Bürgerservices, digitalen Bürgerservices. Und Österreich tut das zum Teil auch, aber wir könnten da sicher noch ein bisschen besser werden.
LUKÁŠ: Und die EU als gesamtes auch, Ihrer Meinung nach?
KÖSZEGI: Mein Eindruck war, dass Europa extrem vorausschauend, umsichtig und kompetent mit dieser Technologie umgegangen ist, insgesamt. Wir sind die erste große Wirtschaftsregion. Wenn man sich KI-Entwicklungen und -Patente und -Startups anschaut, dann gibt es eben einerseits die USA riesengroß, es gibt Europa und es gibt dann China. Noch ein paar andere Länder, die auch groß genug und wichtig sind, Israel und so weiter. Aber wir sind da schon vorne mit dabei als ein großer Wirtschaftsraum, der da mitspielt. Und wir trauen uns jetzt über eine Regulierung drüber, die ich bedeutend und wichtig finde. Ich bin sehr zuversichtlich, trotz auch meiner Bedenken in Einzelteilen oder auch die eine oder andere Unzufriedenheit mit dem Regulierungsvorschlag, dass wir auf einem guten Weg sind.
LUKÁŠ: Eine letzte Frage habe ich noch, und zwar: Sind Ihrer Meinung nach Politik und Verwaltung generell bei Zukunftsthemen kreativ genug?
KÖSZEGI: Ich bin ja ein Fan von Wisdom of the Crowd. Das heißt, wir sollten uns eigentlich nicht wie Cyborgs verhalten und nur die Technologie zu Rate ziehen. Alle, die glauben, sie können ChatGPT fragen und damit richtig gut sein, die machen eigentlich einen Fehler, dass sie sich auf ein eher Durchschnittsniveau runternivellieren. Also gescheiter ist es, Wisdom of the Crowd zu verwenden. Ich denke mir, dann wäre die Politik gut beraten realpolitisch, eben auch die Bevölkerung mehr einzubeziehen und dann auch auf sie zu hören, wie man beim Klimarat gesehen hat. Das ist das Erste, was mir dazu einfällt. Um vielleicht noch einmal darauf hinzuweisen: Die EU-Regulierung ist eine Regulierung, die wirklich nur einen Bereich betrifft, nämlich den European Single Market, den europäischen Wirtschaftsraum. Alles, was man da regulieren konnte und was auch Sinn macht, zu regulieren, hat man so weit wie möglich und so weit wie das jetzt einschätzbar war, berücksichtigt. Realpolitisch muss das implementiert werden in den einzelnen Ländern. Da gibt es Spielraum und da ist die Frage, sind wir da gut genug oder kreativ genug? Machen wir das gut? Das wird sich erst zeigen. Die österreichische Informationsstelle, die jetzt eingerichtet wurde von Florian Tursky, war ursprünglich, glaube ich, nur angedacht für Unternehmer, um sich zu informieren, was da auf sie zukommt und hier ein Stück Sicherheit zu geben. Das finde ich ganz wichtig und notwendig, weil je früher wir uns darauf einstellen können, umso besser. Im Zuge der Präsentation kam es aber dann auch in einer Diskussion dazu, ich durfte mir da auch wünschen, dass ich mir diese Informationsstelle auch für Bürgerinnen und Bürger wünsche. Nicht nur für Unternehmen, sondern auch wir haben Fragen. Was heißt das denn jetzt für mich? Ich habe gestern gelesen, dass der Herr Tursky das auch für Bürgerinnen und Bürger jetzt einrichtet. Und hier denke ich mir, ja, offensichtlich hört die Politik auch zu und greift Maßnahmen und gute Ideen auch auf. Darauf wird es ankommen, dass wir uns darauf verlassen, möglichst viele einzubinden. Nicht einen Kompromiss zu erzielen, sondern die beste Lösung wäre, auf die guten Ideen zu hören und hier zu schauen, unterschiedliche Perspektiven, unterschiedliche Stakeholder, das Wissen dieser Gruppierungen auch zu nutzen, um in Österreich in der Realpolitik dann gut diese Herausforderungen, die auf uns zukommen werden, zu meistern. Und das sind Herausforderungen am Arbeitsmarkt, das sind demokratische Herausforderungen. Wir haben zwei Wahlen zu schlagen. In Amerika sind schon die ersten Robo-Calls mit gefakter Stimme von Biden getätigt worden. Wer weiß, wie schnell das jetzt auch bei uns kommt? Das wissen wir alles nicht. Fakenews und so weiter, es kommen große Herausforderungen auf uns zu, auch schon im kommenden Jahr. Da wird die Frage sein, wie gehen wir realpolitisch damit um?
LUKÁŠ: Das wird ein spannendes nächstes Jahr auf allen Ebenen. Vielen Dank, dass Sie ein bisschen Licht in diesen Nebel – es ist ja keine Dunkelheit, es ist eher ein Nebel, durch den wir gerade tapsen – gebracht haben. Danke für Ihre Arbeit, dass Sie versuchen, durch die Mitarbeit an Regulierungen das Ganze in eine uns Menschen wohlgesonnene Zukunft zu leiten.
KÖSZEGI: Sehr, sehr gerne.
LUKÁŠ: Und damit, meine Lieben, sind wir am Ende dieser Episode von "Rund ums Parlament”. Ich habe heute viel gelernt, viel Neues erfahren. Ich hoffe, euch ist es genauso gegangen. Frau Köszegi hat es gerade angesprochen. Wenn die Politik auf Forscher:innen, Bürger:innen und Expert:innen hört, dann kann sie in einer guten Geschwindigkeit auf Herausforderungen reagieren und im besten Fall sie sogar voraussehen. Wie und von wem sich das Parlament diese Expertise eigentlich holt, darum geht es in unserer nächsten Folge von "Rund ums Parlament”. Dann spreche ich mit Franziska Bereuter von der Parlamentsdirektion, und mit Michael Nentwig, dem Direktor des Instituts für Technikfolgenabschätzung. Das wird sicher spannend. Ich hoffe sehr, ihr seid dann wieder dabei. Damit ihr diese Folge nicht verpasst, abonniert uns gerne. Eine Bewertung von euch würde uns natürlich auch sehr freuen. Falls ihr es noch nicht getan habt, hört gerne in die früheren Folgen von "Rund ums Parlament” rein, zum Beispiel die Folge 26 "Von Brüssel nach Wien: Wie sich Österreich und die EU beeinflussen”. Das wird gut zu unserer heutigen Episode passen. Da erfahrt ihr dann auch gleich mehr zum Thema EU-Gesetze und nationale Parlamente. Falls ihr Fragen, Kritik oder Anregungen zum Podcast habt, dann schreibt uns gerne eine E-Mail an podcast@parlament.gv.at und schaut auch mal auf unserer Website und unseren Social-Media-Kanälen vom österreichischen Parlament vorbei. Dort findet ihr jede Menge Informationen und Angebote rund um das österreichische Parlament und zu unserer Demokratie. Ich freue mich auf jeden Fall bereits jetzt schon auf die nächste Folge mit euch. In diesem Sinne, vielen Dank fürs Zuhören. Mein Name ist Tatjana Lukáš. Wir hören uns.
Jingle: Rund ums Parlament, der Podcast des österreichischen Parlaments.
Fotoalbum zur Folge
Rund ums Parlament: Folge 35