Parlamentarisches Forum

Zukunftsgestaltung im Gesundheitswesen – künstliche Intelligenz im Fokus

Transkript

Verfasst von der Abteilung 1.4/2.4 – Stenographische Protokolle

 

 

 

Dienstag, 30. Jänner 2024

9.02 Uhr – 11.43 Uhr

 

 

Elise Richter Lokal 2

Programm

Eröffnungsworte

Wolfgang Sobotka – Präsident des Nationalrates

Keynote: „Künstliche Intelligenz in der Medizin: Fluch oder Segen?“

Heinz Ludwig – Leiter des Wilhelminenkrebsforschungsinstituts

Keynote: „KI in der Frauengesundheit – hat die KI ein Bewusstsein?“

Johannes Huber – Außerordentlicher Professor Medizinische Universität Wien

Keynote: „Ethische Aspekte der künstlichen Intelligenz in der Medizin“

Christiane Druml – Vorsitzende der Bioethikkommission beim Bundeskanzleramt, Inhaberin des UNESCO Lehrstuhls für Bioethik an der Medizinischen Universität Wien, Direktorin des Josephinums – Medizinische Sammlungen

Keynote: „Wer heilt, hat recht: mit 'AI-Tools and Weapons' zwischen Kurt Gödel, Donald Trump und Konfuzius …"

Rüdiger Stix – Honorarprofessor, Sigmund Freud Privatuniversität, Wissenschaftlicher Programmkoordinator, U4SSC-Hub-Austria

Podiumsdiskussion der Keynote-Speaker

Moderation

Günther Mayr – Leiter der ORF-Wissenschaft


 

Beginn der Veranstaltung: 9.02 Uhr

Günther Mayr (Moderation): Einen schönen Vormittag, meine Damen und Herren. Ich darf Sie zur dritten Veranstaltung einer Reihe, die sich dem Thema künstliche Intelligenz widmet, begrüßen. Ob es um Intelligenz geht oder nicht, darüber wird trefflich gestritten, aber der Begriff ist nun einmal so eingeführt. Es gab bereits zwei Veranstaltungen, eine zum Thema: Was macht denn eigentlich die künstliche Intelligenz bei Entscheidungsprozessen in einer Demokratie?, im zweiten Forum ging es um: Was macht denn eigentlich künstliche Intelligenz mit Medien, mit Moderatoren, mit Journalismus? – auch ein spannendes Thema.

Einem natürlich auch sehr, sehr wichtigen Thema in diesem Zusammenhang ist die heutige Veranstaltung gewidmet: Was kann denn diese künstliche Intelligenz im Bereich der Medizin? Sind Ärztinnen und Ärzte irgendwann nur noch Vollzugsorgane von Maschinen, die Diagnosen stellen, Therapien ausarbeiten? Es sind viele Dinge denkbar und viele werden auch schon gemacht.

Zunächst aber darf ich Sie im Namen des Initiators und des Hausherrn Parlamentspräsident Wolfgang Sobotka, der leider heute verhindert ist, begrüßen. In seiner Vertretung ist Parlamentsdirektor Harald Dossi hier. – Vielen Dank. (Beifall.)

Ich darf Ihnen nun kurz die Vortragenden vorstellen: Dr. Christiane Druml ist Vorsitzende der Bioethikkommission in Österreich – ein sehr wichtiges Gremium –; Univ.-Prof. Johannes Huber muss man fast nicht vorstellen, er ist ein berühmter Gynäkologe und auch Theologe –da geht es also auch um ethische Aspekte –; Univ.-Prof. Dr. Heinz Ludwig, anerkannter Mediziner im Krebsbereich – schön, dass Sie da sind! –, und Dr. Rüdiger Stix, der sich als Honorarprofessor an der Sigmund-Freud-Universität auch mit diesem Thema beschäftigt.

Eine Meldung von gestern geht auch heute noch rund um die Welt: Es ist zum ersten Mal passiert, dass man einem Patienten in den USA einen Chip ins Gehirn eingebaut hat, ein sogenanntes Brain-Computer-Interface. Das bedeutet, dass dieser Chip dann diesen Menschen mitsteuert. Dahinter steckt einmal mehr Elon Musk, den kennen Sie wahrscheinlich von verschiedenen Firmen. Mit seiner Firma Neuralink wurde das gestern gemacht –eine schwierige Operation, approbiert und freigegeben von der amerikanischen Gesundheitsbehörde FDA. Das bedeutet: Wir stehen vor gewaltigen Schritten in diesem Bereich, wenn man sich überlegt, was hier möglich ist, besonders in der Gehirnforschung.

Es hat natürlich immer in der Geschichte der Wissenschaft Skepsis gegeben, wenn neue Dinge aufgetaucht sind. Freud hat das damals einmal so gesagt, dass der Mensch oder die Menschheit bis zu seiner Zeit in ihrem Menschsein und in ihrem Selbstverständnis dreimal schwer gekränkt wurde: Die erste Kränkung entstand durch Kopernikus’ Erkenntnis, dass wir eben nicht der Mittelpunkt des Universums sind, sondern dass sich die Erde um die Sonne dreht. Kopernikus hat man dann so ein bisschen als Spinner abgetan, Giordano Bruno ist einige Jahrzehnte später auf dem Scheiterhaufen gelandet, weil man das nicht mehr tolerieren wollte, und Galileo, Sie wissen es, musste es widerrufen, weil es den obersten Kirchenleuten nicht gefallen hat.

Der Zweite, der sozusagen ein Modell ins Wanken gebracht hat, war Darwin mit seiner Evolutionslehre. Meine Mutter zum Beispiel – sie ist christlich-katholisch geprägt – konnte ihr Leben lang nicht akzeptieren, dass wir vom Affen abstammen, sie wollte das nicht wahrhaben. Das hat den Menschen also auch irgendwo gekränkt, wie Freud gemeint hat.

Freud selbst war ja jetzt nicht – wie soll man sagen? – von Bescheidenheit geprägt, denn er hat gemeint, die dritte Kränkung war durch ihn verursacht, weil er den Menschen gesagt hat: Es gibt ein Unterbewusstsein, ihr braucht gar nicht zu glauben, dass ihr alles wisst, sondern ihr werdet von Dingen gesteuert, die ihr selbst gar nicht merkt, nämlich dem Unterbewusstsein.

Es war schon 1996, dass Böning, ein sehr bekannter Psychiater in Bayern, gesagt hat: Die vierte Kränkung ist die künstliche Intelligenz. Das sind Dinge, wo wir akzeptieren müssen, dass Maschinen besser sind als wir. Wir müssen akzeptieren, dass es sozusagen jetzt schon einen künstlichen Geist gibt, der nicht nur rechnet, sondern auch entscheidet, abwägt. Man hat es damals gesehen: Als Schachweltmeister Kasparow das erste Mal gegen einen Computer verloren hat, hat er sehr entrüstet das Zimmer verlassen. Es kränkt uns also, wenn wir sozusagen für unsere Begriffe unterliegen.

KI macht natürlich auch Angst und sie macht vor allem in der Medizin auch Dinge möglich, wo wir sagen müssen: Da ist der Mensch schon Zweiter. Bei den Diagnosen für Lungenkrebs in den USA stehen KI-Systeme bei 98 Prozent Erkennungsrate – das schlägt jeden Menschen. An der Universitätsklinik in Wien wurde vor einigen Monaten eine Untersuchung vorgestellt, in der sich herausgestellt hat, dass bei den Hautkrebserkennungen diese Systeme den Ärztinnen und Ärzten, den Dermatologen schon überlegen sind. In der Therapie ist es noch nicht soweit, da entscheidet der Mensch dann doch besser, aber in der Diagnostik liegt die KI eindeutig vorne.

Über all das wollen wir heute reden und ich darf Herrn Direktor Dossi um kurze Eröffnungsworte für diese Veranstaltung bitten. (Beifall.)

Dr. Harald Dossi (Parlamentsdirektor): Danke schön, Herr Dr. Mayr.

Meine sehr geehrten Damen und Herren, ich möchte einleitend – es wurde schon erwähnt – Herrn Präsidenten des Nationalrates Wolfgang Sobotka entschuldigen. Er ist leider verhindert und hat mich gebeten, ihn hier zu vertreten. Präsident Sobotka ist das Thema künstliche Intelligenz und die Auswirkungen dieser Entwicklungen auf viele Bereiche der Gesellschaft ein großes Anliegen und er hat bereits in der Mitte des letzten Jahres begonnen, dieses Thema da und dort und auch in einer Reihe von Veranstaltungen hier im Parlament aufzubereiten.

Ich würde in dem Zusammenhang gerne diesen Gedanken der Kränkungen aufgreifen, die Herr Dr. Mayr einleitend angesprochen hat. Wir sehen die Aufgabe des Parlaments und die Aufgabe im Parlament zum Thema künstliche Intelligenz insbesondere darin, dass wir uns noch nicht gewissermaßen defätistisch dem Gedanken hingegeben haben, es werde in einer Kränkung enden und es müsse nur die Kränkung sein, sondern wir sind der Meinung, es gibt noch Hoffnungen und Erwartungen, dass man die weitere Entwicklung dieser Technologie auch politisch und rechtlich regulieren kann.

Das sind Themen, die sich auch durch andere parlamentarische Dimensionen ziehen, gerade im Bereich künstliche Intelligenz und Gesundheit, wenn es um Datenschutz geht, wenn es um Transparenz geht – Themen, die nicht nur bei der künstlichen Intelligenz eine Rolle spielen. Ich erinnere daran – Stichwort Transparenz –, das wir am Vortag eines Plenartages des Nationalrates sind, an dem das Informationsfreiheitsgesetz beraten und wohl auch beschlossen werden wird. Wir wissen – Stichwort Datenschutz – seit einigen Tagen durch ein sehr aufsehenerregendes Erkenntnis des Europäischen Gerichtshofes, dass das europäische Datenschutzregime auch für den parlamentarischen Bereich oder den gesetzgeberischen Bereich im Parlament voll inhaltlich anwendbar ist. Das sind Themen, die auch die Politik und das Parlament als Gesetzgeber zu den Regulierungen der Rahmenbedingungen noch sehr beschäftigen werden.

Ich finde es gut, dass wir heute das Thema Gesundheit im Zusammenhang mit künstlicher Intelligenz aufgreifen. Ich glaube, hier zeigt sich sehr gut, dass je genauer man auf ein Thema hinsieht, desto mehr werden die Fragen, die sich in diesem Zusammenhang stellen. Üblicherweise, wenn man über künstliche Intelligenz spricht und diskutiert, wird ja oft bei allen Schreckensszenarien und Bedrohungsszenarien, die da gezeichnet werden, das Thema Gesundheit als absolutes Positivbeispiel genannt. Es wird so ungefähr argumentiert, dort sei es uneingeschränkt positiv und gut. Ich denke, dass die Referentinnen und Referenten eben mit diesem genaueren Blick auf das Thema zeigen werden, dass sich auch hier ethische Fragen, rechtliche Fragen, politische Fragen stellen, und ich denke, das sollte auch zu diesem Thema eine gute Grundlage bieten, um zukünftige politische Debatten im Nationalrat und im Parlament gut aufzubereiten.

In dem Sinne, vielen Dank, sehr geehrte Damen und Herren, die heute bereit sind, Referate zu halten und dann auch bei der Podiumsdiskussion teilzunehmen. Herr Dr. Mayr, vielen Dank noch einmal für die Bereitschaft der Moderation. Ich wünsche Ihnen und uns einen sehr interessanten Vormittag zu diesem Thema. – Vielen Dank. (Beifall).

Günther Mayr: Vielen Dank, Herr Direktor. Ja, es geht eben um die Riesenchancen, die das Ganze auch bietet, aber auch um die Risiken. Ob es MRT-Bilder sind, ob es andere EKG-Daten sind, die schon von Sportuhren und so weiter ausgewertet werden – all das sind ja Entwicklungen, die schon längst da sind. In der Medizin geht es natürlich sehr, sehr rasant und sehr, sehr schnell sehr viel weiter. Sie wissen, dass die KI-Technologie in vielen, vielen Spitälern schon im Einsatz ist, vor allem auch in der Entwicklung von Medikamenten – nicht zu vergessen! –, zum Beispiel um herauszufinden, welche Proteingruppen sich besonders eignen. Da sind überall schon KI-Systeme im Einsatz, die herausfinden, was jetzt die besten Wirkmechanismen sind, wo wir unter Umständen ansetzen können, und das mit einer Geschwindigkeit, die den Menschen zum Teil auch Angst macht.

Sie kennen das Beispiel der Coronaimpfung, bei der es ja sehr oft geheißen hat: Wie können die das so schnell? Wieso? Das kann nicht funktionieren, das muss man doch viel besser überprüfen! Tatsache ist: Man hat hier schon viel mit KI gearbeitet, um den Impfstoff zu entwickeln, hat natürlich auch schon viel Vorwissen gehabt. Da kommen dann wieder die Erfahrungen von Mediziner:innen und von Ärzten ins Spiel, die gelernt haben, mit verschiedenen komplexen Krankheiten umzugehen.

Ein ganz großes Feld, das uns natürlich alle immer wieder beschäftigt und wo der Menschen sozusagen immer noch ein bisschen ratlos ist, ist die Krebsforschung, wobei wir zum Teil schon große Erfolge sehen, aber auch immer wieder sagen müssen: Da können wir nichts machen – Bauchspeicheldrüsenkrebs et cetera –, in anderen Krebsarten sehen wir aber große Erfolge.

Ein Mann, der sich sehr stark damit beschäftigt hat und auch ein eigenen Institut dafür ins Leben gerufen hat, wird unser nächster Redner sein. Hier geht es vor allem darum, das Wissen, das die Medizin als solche hat, auch dem Patienten zur Verfügung zu stellen, zu vermitteln, was wir wissen, was wir können, warum es manchmal so schnell geht und wo wir anstehen, wo wir noch nicht so recht wissen, in welche Richtung es gehen könnte. Er hat sehr viel internationale Erfahrung und ist einer der anerkanntesten Krebsexperten weltweit. Ich darf Herrn Prof. Heinz Ludwig auf die Bühne bitten. – Bitte sehr. (Beifall.)

Heinz Ludwig (Leiter des Wilhelminenkrebsforschungsinstituts): Sehr geehrter Herr Parlamentsdirektor Dossi! Sehr geehrter Dr. Mayr! Sehr geehrte Damen und Herren! Ich freue mich, dass ich heute mit Ihnen das Thema künstliche Intelligenz in der Medizin besprechen kann. Ich kann dieses große Thema natürlich nur punktuell beleuchten und darf gleich mit dem ersten Bild beginnen.

Es ist schon einige Zeit her, als ich gebeten wurde, im Rahmen der Amerikanischen Gesellschaft für Onkologie – das ist die größte Gesellschaft dieser Art weltweit – einen Vortrag, eine Keynotelecture über Entwicklungen, die die Qualität der Krebsbehandlung verändern werden, zu halten. Ich habe damals die Vision gehabt, dass man hergeht und sozusagen das Wissen – da waren 3 500 Leute im Saal –der einzelnen Personen auf eine Festplatte kopieren könnte und dann dieses Wissen – das gespeicherte Wissen –verschiedenen einzelnen Onkologen übertragen könnte. Was wäre das für ein Quantensprung in der Qualität der Betreuung, in der Wissensdimension des betroffenen Onkologen! Das ist noch nicht Realität, aber Herr Dr. Mayr hat gerade von der Implantation eines Chips gesprochen – und das wird natürlich so weitergehen.

Wenn wir uns nun fragen: Wie ist denn künstliche Intelligenz definiert? – Das Europäische Parlament hat künstliche Intelligenz so definiert: KI ist die Fähigkeit einer Maschine, menschliche Fähigkeiten wie logisches Denken, Lernen, Planen und Kreativität zu simulieren und sozusagen eine größere Leistungsbreite und Leistungsqualität, als sie Menschen möglich sind, zu produzieren. Es geht darum, Fakten – oft viele Fakten – wahrzunehmen, zu verarbeiten und dann entsprechende Schlussfolgerungen zu ziehen.

Ausgewählte Schwerpunkte dieser künstlichen Intelligenz – da gibt es verschiedene – sind hier dargestellt (der Redner unterstützt in der Folge seine Ausführungen mittels einer Powerpoint-Präsentation): Deep Learning, damit meint man eigentlich maschinelles Lernen, das zum Teil auf neuronalen Netzwerken beruht und große Datenmengen verarbeiten kann. Natural-Language-Processing bedeutet, dass der Computer letztlich Sprache verstehen kann und dann geht es sogar ein bisschen weiter – das ist ja alles Realität, zum Beispiel bei Google –, nämlich kann der PC nicht nur Sprache verstehen, sondern – das war der wichtige Schritt – er kann auch Texte in Sprache transformieren.

Dann gibt es Computervision, darüber wird noch viel gesprochen werden. Der Computer kann Tausende Bilder verarbeiten und daraus Schlussfolgerungen ziehen. Ein ganz einfaches Beispiel: Wenn Sie den Computer sozusagen mit der Information über 1 000 Katzen versorgen und Sie zeigen dann dem Computer eine Katze, die nicht in den 1 000 Bildern dabei war, dann erkennt der Computer die Katze als Katze und kann dann noch vieles dazu sagen. Machinelearning, Robotics, Expertsysteme – all das sind Teile der künstlichen Intelligenz und man könnte das noch sehr stark ausweiten.Mein Thema ist aber künstliche Intelligenz in der Medizin. Warum brauchen wir das? – Das wurde schon von Herrn Mayr so eloquent angesprochen: Leider ist unser Intellekt begrenzt – unsere intellektuellen Fähigkeiten, aber auch unser Gedächtnis. Wir sind nicht in der Lage, zum Beispiel die etwa 30 000 verschiedenen Erkrankungen, die bis heute bekannt sind – davon sind 8 000 ganz seltene Erkrankungen –, komplett zu memorieren. Das ist völlig unmöglich.

Wir haben also das Problem, dass wir selbst bei Spezialisierung den Computer heute einfach zurate ziehen müssen, eigentlich jeden Tag, um zu sehen, welche Informationen in der Welt generiert werden, um uns up to date zu halten, selbst in einem kleinen Spezialgebiet der Medizin. Es kommt noch dazu: Warum brauchen wir künstliche Intelligenz? – Wir müssen besser werden.

Wir müssen in der Diagnose besser werden. Es gibt nach wie vor Fehldiagnosen. Sie sehen hier eine Liste von Fehldiagnosen. 10 Prozent der Schlaganfälle werden nicht oder nicht gleich erkannt, bei der Blutvergiftung und einigen anderen Erkrankungen ist es ähnlich. Es gibt auch andere Berichte, in denen die Rate der sogenannten Fehldiagnosen noch viel höher ist.

Wir wollen das reduzieren, wir müssen das eliminieren und wir können das à la longue offensichtlich nur mithilfe zusätzlicher künstlicher Intelligenz erreichen. Ich habe die künstliche Intelligenz – Sie kennen ja, Chat-GPT, das von Sam Altman und seinen Mitarbeitern entwickelt wurde –, gefragt, was denn künstliche Intelligenz in der Medizin alles bewirken könnte. Ich habe das auf der Folie taxativ aufgelistet. Ich kann nicht alles im Detail behandeln, aber: Früherkennung und Diagnose, personalisierte Behandlungspläne – das ist ja das Thema –, Verfassung von Arztbriefen – das werde ich besprechen –, Medikamentenentwicklung, Bilderkennung und -analyse, Telemedizin, Reduzierung von Fehlern – Reduzierung von Fehlern ist das Thema: es geht um eine Optimierung der Qualität der medizinischen Versorgung –, Effizienzsteigerung und Kosteneffizienz.

Wenn wir uns eine KI-unterstützte Patientenreise vorstellen: Was können wir denn tun bezüglich Prävention? – Wir können die Daten eines individuellen Menschen erfassen – das passiert ja schon, Google macht das ja –, wir können aus seinem persönlichen Lebensstil sein Risiko für Erkrankungen bestimmen und wir können ihm Empfehlungen geben, was er tun könnte, um sein Risiko für Erkrankungen, zum Beispiel für Typ-2-Diabetes, zu reduzieren. Das können wir heute schon. Die Umsetzung braucht aber Wissen, Information des Betroffenen und vor allem auch, das wissen wir alle, sehr viel Selbstdisziplin.

Wir haben es aber in der Hand, und Prävention ist natürlich viel wichtiger als Screening, ist viel günstiger als Screening. Screening ist natürlich die Alternative, die müssen wir machen, aber nur in bestimmten Dingen. Wir müssen Screening dort machen, wo der meiste Effekt zu erwarten ist: Dickdarmkrebs, Mammakarzinom und anderes. Man muss es aber dort machen, wo es sinnvoll ist. Es wird oft Screening betrieben, das eigentlich medizinisch oder wissenschaftlich nicht wirklich fundiert ist, durch die Ergebnisse des Screenings. Auch Diagnostik ist ein Thema für KI-Unterstützung, keine Frage, das werden wir kurz besprechen.

Therapie, ist eigentlich schon ein Thema für heute, aber vor allem für die Zukunft, weil wir da besser werden können. Künstliche Intelligenz ist in der Lage, wissenschaftliche Publikationen zu lesen, Krankengeschichten zu lesen, die Informationen zu extrahieren und daraus dann Schlussfolgerungen für einzelne Patienten zu treffen.

Das betrifft das Thema Nachsorge natürlich auch: individualisierte Nachsorge, Rezidivrisiko, die Frage, wann jemand wiederkommen soll. Auch das können wir an die Bedürfnisse eines bestimmten Menschen, Individuums anpassen.

Das Thema Patientenempowerment scheint mir ganz besonders wichtig. Darüber sollten wir auch noch sprechen, dazu habe ich dann noch eine Folie eingebaut.

Einfache Beispiele: Am Cedars Sinai Hospital, einem großen Spital in Los Angeles, hat man sich die Mühe gemacht, eine Million EKGs zu analysieren und die Daten zu speichern. Dann hat man die Frage gestellt: Wer von den Patienten, bei denen das EKG gemacht wurde, hat ein Risiko, im nächsten Monat ein Vorhofflimmern zu entwickeln? Das Ergebnis war: Man konnte mithilfe dieser Auswertung, mit dieser unglaublichen Datensumme letztlich bei dem nächsten Patienten, der bei der Tür hereingekommen ist, feststellen, ob dieser ein extrem hohes Risiko hat, im nächsten Monat Vorhofflimmern zu entwickeln. Das ist etwas, was man heute umsetzen kann und was wahrscheinlich in Zukunft sehr breit umgesetzt werden wird, weil das eine einfache Sache ist.

Genetische Risikoanalysen: Das ist natürlich heute ein Hot Topic, wie wir das so nennen in der Medizin. Sie sehen auf der Folie: Das sind die menschlichen Zellen. Da haben Sie das Genom. Da haben Sie die Chromosomen – letztlich bestehen die aus DNA, diese berühmte Doppelhelix, von Crick und Watson beschrieben. Sie sehen, dass drei solche Basenpaare, ein Protein, also eine Aminosäure codieren. Die sind spezifisch angeordnet, und wenn dann ein Fehler passiert, also wenn zum Beispiel statt Thymin Guanin da ist, kann ein falsches Protein produziert werden, und das kann dann dazu führen, dass der Patient Bluter ist oder eine Thalassämie hat.

Kleine Veränderungen im Genom können extrem gravierende Auswirkungen haben. Diese Fakten haben wir heute schon. Was Sie aber auch machen können – das können Sie heute alle machen –, ist eine genetische Risikoanalyse. Sie sehen in dem Beispiel: Das Risiko ist gering, es besteht ein etwas erhöhtes Risiko für Fettleibigkeit. Man kann hier die Risikosituation diagnostizieren, zum Beispiel bezüglich einer Darmerkrankung, Lungenkrebs, hämatologischen Erkrankungen und so weiter.

Was können Sie machen, wenn ein solches Risiko besteht? Sie machen ein genetisches Profil, und es kommt heraus, Sie haben ein Risiko für Typ-2-Diabetes: Dann müssen Sie Ihren Lebensstil ändern, anpassen, und dann können Sie das Risiko entsprechend vermindern. So ist das auch mit Fettleibigkeit und anderen Dingen auch. Das wird heute auch in anderen Vorträgen noch Thema sein.

Das ist ja eine Domäne der künstlichen Intelligenz: Tausende Datensätze zu sammeln und aus diesen Datensätzen dann Schlussfolgerungen zu ziehen. Bei dem Fall auf der nächsten Folie war die Frage: Hat dieser Patient, von dem Sie das CT-Bild sehen, schon Anzeichen eines Lungenkrebses? Die Radiologen haben gesagt: Nein, wir sehen nichts!, aber die künstliche Intelligenz hat den Tumor schon gesehen, der dann zwei Jahre später mit freiem Auge erkennbar ist.

Sie können heute mit künstlicher Intelligenz eine höhere diagnostische Qualität, Sensitivität erreichen als je zuvor. Das wir der Professor Huber noch berichten, und wir werden wahrscheinlich von Frau Professor Druml auch über die ethischen Konsequenzen hören. Das ist also phänomenal, das funktioniert bei verschiedenen Tumoren, das funktioniert bei Gewebeuntersuchungen und so weiter.

Der KI-gesteuerte Operationsroboter: Das ist natürlich ein einfaches Beispiel der Robotik. Welche Vorteile bringt dieser Operationsroboter? – Der Operateur nimmt nicht mehr Messer zur Hand, sondern das macht der Roboter, aber der Vorteil für den Operateur ist vielfach: Er sieht das Operationsgebiet dreidimensional am Schirm, vergrößert, und er kann die Messer mit ruhiger Hand führen und kann eine höhere Präzision im Operationsbereich erreichen und damit die Operationsergebnisse verbessern.

Zugegeben, man muss nicht überall den Operationsroboter einsetzen: Man muss ihn dort einsetzen, wo es wissenschaftliche Daten gibt, dass er die Operationsqualität verbessert, die Mortalität reduziert und dass der Patient in kürzerer Zeit wieder nach Hause gehen kann. Das ist am Weg und es gibt viele Zentren in Österreich, die solche Roboter haben. Man muss dann zwischen Promotion und wissenschaftlichem Fortschritt trennen. Wir brauchen den wissenschaftlichen Fortschritt, und in gewissen Indikationen ist der unschlagbar. Denken Sie an das Auge, daran, was für eine feine Hand Sie haben müssen, um Operationen am Auge durchzuführen – das lässt sich mit der KI, also mit dem Operationsroboter, viel leichter durchführen.

Personalisierte Therapie: Wozu braucht es das? – Wir brauchen das, weil wir gesehen haben, dass wir Menschen fehleranfällig sind, dass wir nicht perfekt sind, und wir brauchen ein perfekteres System, um mehr Gesundheit möglich zu machen – bessere Diagnosen, bessere Therapien. Dafür müssen Sie eine Vielzahl von Daten sammeln, also klinische Daten, pathologische Daten: Sie können aus dem Blut zirkulierende Tumor-DNA bestimmen und so weiter; Sie können die genetische Situation des Patienten und des Tumors analysieren; Sie können die metabolische Konstellation der Tumorzellen analysieren; Sie können das Mikrobiom in die Prognose- oder Therapieerstellung miteinbeziehen und Sie können natürlich – Radiomics heißt das – die bildgebenden Möglichkeiten miteinbeziehen. Und wenn Sie das machen, bekommen Sie präzisere Therapiepläne, weil Sie viel mehr an Wissen in die Entscheidungsfindung einbringen können. Sie können auf verschiedene Dinge Rücksicht nehmen, auf Arzneimittelinteraktion und so weiter. Was Sie in Zukunft wollen, ist ein größerer Therapieerfolg, weniger Nebenwirkungen, weniger Morbidität und eine Kostenreduktion.

Ich sage nicht, dass das heute sozusagen schon perfekt funktioniert, aber es gibt weltweit viele Bemühungen, diesen Ansatz weiterzuentwickeln, zu optimieren, und ich denke, die Zeit ist nicht so weit entfernt, bis wir das wirklich zur Verfügung haben und unseren Patienten anbieten können.

Was gibt es für Beispiele? – Einfache Beispiele, zum Beispiel Sepsisfrüherkennung: Das beruht auf drei Parametern, Herzfrequenz, Blutdruck und Laborwerte, und dann können Sie entscheiden, ob der Patient, der fiebert, ein hohes Risiko hat, eine Sepsis zu entwickeln. Warum ist das wichtig? – Bei der Sepsis zählt jede Stunde, die Sie versäumen, für die Einleitung einer wirksamen Therapie, in der Regel einer antibiotischen Therapie. Sie können damit die Chance auf Heilung also natürlich deutlich erhöhen.

Sie können Therapievoraussagen für verschiedene Lymphomerkrankungen und für verschiedene andere Dinge machen. Es ist verständlich, wenn Sie all diese molekularen Informationen, die Mutationen, die da im Tumor sind, die im Patienten sind, heranziehen, dass Sie dann spezifischere Therapien entwickeln können. Wir sprechen heute von zielgerichteten Therapien, bei denen Sie sozusagen mit kleinen Medikamenten – das zeige ich dann noch – große Wirkung erzielen können.

KI ist in den USA für den Gebrauch in der Medizin in vielen Bereichen zugelassen, vor allem in der Radiologie, auch in der Kardiologie natürlich, in der Hämatologie und in anderen Disziplinen.

Das wird eine große Erleichterung bringen, daran wird schon heftig gearbeitet: der Arztbrief auf Knopfdruck. Dieser Arztbrief der Zukunft wird auf all die Daten, die für den Patienten gespeichert sind, zurückgreifen können, nicht nur auf die Momentaufnahme, wie sie jetzt der Arzt vom Patienten hat, oder auf die Daten vom letzten Monat, vom letzten Jahr, sondern KI kann idealerweise auf all diese Daten zugreifen und kann dann die Situation des Patienten genau darstellen und entsprechende Behandlungsempfehlungen aussprechen. Was hat der Patient davon? – Dieser geht mit einem Arztbrief nach Hause – das tut er übrigens im Wilhelminenspital auch, das ist nicht überall so –, und dabei wird sich dann natürlich das Zeitfenster auf null schließen: Der Patient wird entlassen und bekommt seinen Arztbrief. Wir haben also Zeitersparnis, das Wichtigste ist aber die Qualitätsverbesserung.

In der Wissenschaft ist KI unerlässlich. Das ist nur ein einfaches Beispiel: Was Sie hier auf der Folie aufgeschlüsselt sehen, sind verschiedene Patienten und verschiedene genetische Veränderungen. Dem einen fehlt zum Beispiel ein Tumorsuppressorgen, beim anderen gibt es irgendwie ein Zusatzgen. Sie können dann – das sind verschiedene Patienten, die Sie hier sehen – diese Datensätze analysieren und zum Beispiel, wenn Sie wollen, verschiedene Patientencluster definieren. Hier auf der Folie sehen Sie, der Cluster eins spricht auf diese Therapie besonders gut an. Das betrifft auch die anderen Cluster, aber andere Therapien sprechen in den verschiedenen Clustern unterschiedlich gut an. Das ist heute Realität, das können Sie machen, allerdings nur in wissenschaftlich sehr spezialisierten Abteilungen.

Was erwarten wir dadurch? – Effizienzsteigerung, Analyse von komplexen Datensätzen – es wiederholt sich natürlich, das ist die Voraussetzung –, KI kann aber auch wissenschaftliche Beiträge schreiben. Das ist schon passiert, und dabei stellt sich die Frage: Wer ist denn der Autor? – Heute ist der Konsens, dass man sagt: Dieses Manuskript wurden zum Teil mithilfe von KI entwickelt. KI muss, wenn sie eine wichtige Rolle gespielt hat, dann sozusagen zu den Autoren zählen. Mit einem Wort, die Frage ist: Wer ist der Autor? – KI gehört auf jeden Fall genannt, zum Beispiel für diese wissenschaftlichen Publikationen. Es beschleunigt aber natürlich, wie soll ich sagen, die Geschwindigkeit, mit der solche Publikationen entwickelt werden können, und die Genauigkeit und die Präzision, mit der diese Publikationen dann zu den Journalen geschickt werden.

Medikamentenentwicklung: Das ist ja ein großes Thema, und mit der KI können Sie neue Medikamente leichter entwickeln. Nehmen wir also ein Beispiel: Zum Beispiel sehen wir hier (auf die entsprechende Folie weisend) ein Enzym, und wenn ein Zielprotein, das im Blut zirkuliert, sich bei diesem Enzym sozusagen anbindet, kommt es zum Zellwachstum. Solche Prinzipien gibt es auch bei bestimmten Tumoren. Nehmen Sie zum Beispiel die chronische myeloische Leukämie, da haben wir genau diese Situation: Das Zielprotein zirkuliert im Blut, der Patient hat eine Veränderung dieses Enzyms und produziert dann dauernd Zellproliferation. Man kann da aber Hemmstoffe entwickeln, die verhindern, dass dieses Zielprotein sich da anbinden kann. Wenn der Hemmstoff da ist, dann kann das Zielprotein nicht mehr andocken und Sie reduzieren beziehungsweise bringen das Tumorwachstum eigentlich auf null. Ein gutes Beispiel dafür ist die chronische myeloische Leukämie, die kann man mit diesem Ansatz quasi fast heilen.

Sie können sich vorstellen, dass es Tausende Proteine gibt, die eine solche Funktion haben, und dass es mit der künstlichen Intelligenz leichter ist, diese Hemmstoffe zu entwickeln, die genau in solche Taschen passen. Das passiert, und es funktioniert ganz hervorragend. Das heißt also: höhere Effizienz, Zeit- und Kosteneffizienz – keine Frage.

Etwas ist mir auch ein Anliegen: Wir müssen die Gesellschaft empowern – der Parlamentsdirektor macht das ja tagtäglich. Die Menschen haben auch eine Verantwortung für sich selbst, für ihre Gesundheit, und sie müssen sich aus meiner Sicht daher auch informieren, insbesondere wenn sie zum Arzt gehen, weil ein besser informierter Patient dem Arzt ganz andere Fragen stellen kann und viel mehr aus dem Arztgespräch herausholt. Übrigens, Sie werden es nicht glauben, auf die Frage: Korreliert Intelligenz mit Lebenserwartung?, ist die Antwort: Ja, mit Ausnahme von Krebserkrankungen.

Der Patient muss also informiert werden, und es hilft uns natürlich die KI. Die Patienten bekommen Informationen über ihre Krankheit, sie wissen dann besser Bescheid. Sie müssen ja Bescheid wissen, wenn etwas kritisch ist. In der Onkologie ist das ja häufig der Fall. Wenn etwas kritisch ist, dann müssen Sie wissen: Das ist eine kritische Veränderung, da muss ich ins Zentrum und da muss ich mit meinem Arzt kommunizieren. Natürlich haben wir die Möglichkeit, Telemedizin zu betreiben, des virtuellen Krankenhauses, und natürlich können wir Patienten schulen, Pflegepersonal schulen und Ärzte schulen.

Ich denke, Frau Prof. Druml und Prof. Huber werden vielleicht auch über Empathie sprechen. Die Frage stellt sich wirklich: Kann künstliche Intelligenz empathisch sein?

Da gibt es eine interessante Studie. Künstliche Intelligenz ist ja noch nicht so weit, dass sie direkt mit den Patienten spricht – das ist eine Entwicklung, die wahrscheinlich in Kürze verfügbar sein wird –, aber sie kann mit den Patienten kommunizieren, und zwar schriftlich. Dazu, dass die künstliche Intelligenz schriftlich mit den Patienten kommuniziert, gibt es eine Studie. Eine Studie ist nicht alles, da müssen wir vorsichtig sein, aber diese Studie kommt zum Schluss, dass die Formulierung der künstlichen Intelligenz – es geht um einen Brief an Patienten – eine empathischere war als die der Ärzteschaft. Nicht alle Ärzte sind gleich, es gibt schon sehr empathische, aber es gibt auch welche, die besser in die Labormedizin gegangen wären. Das kann die künstliche Intelligenz sozusagen nivellieren und eine höhere empathische Qualität produzieren – schriftlich bisher.

Grenzen gibt es viele, ich führe nur ein paar an: Schwierigkeiten vor allem beim Patienten – nicht alle Patienten dokumentieren das breite Spektrum ihrer Beschwerden, und daher ist es oft wichtig, nachzufragen. Da ist es auch wichtig, eine gewisse Erfahrung zu haben, dass man fragt, was das Problem ist. In der Onkologie haben Sie häufig Nachtschweiß, da müssen Sie um 3 Uhr das Nachthemd wechseln. Solche Dinge sind ganz wichtig, und da ist die KI noch nicht so weit. Wenn der Patient Nachtschweiß hat, dann hat er wahrscheinlich eine Infektion – es gibt natürlich auch andere Gründe.

Das Misstrauen in der Gesellschaft gegenüber KI, überhaupt gegenüber Datenspeicherung, ist natürlich groß. Das ist in verschiedenen Ländern unterschiedlich. Wenn Sie nach Estland oder Litauen schauen: Dort sind alle Patientendaten gespeichert, und letztlich ist der Nutzen für den einzelnen Patienten ein viel größerer, weil Sie ja ganz andere Schlussfolgerungen für die gesamte Population ziehen können. Das Misstrauen wird langsam, langsam weniger werden, aber das wird noch eine Zeit dauern.

Gesamtanalyse nur über dokumentierte Daten.

Manche Diagnosen – das muss man auch sagen – sind zum Zeitpunkt des Arztgesprächs mit dem Patienten nicht möglich, sondern da braucht man den Verlauf, da muss man Geduld haben, und da muss auch die KI sozusagen die Möglichkeit haben, den Patienten zu verfolgen.

Meine persönliche Einschätzung ist ganz einfach: KI revolutioniert unser Leben, das wissen wir alle, die wir hier sitzen, aber das Wichtige ist: Sie umgeht die Grenzen unserer menschlichen Fähigkeiten, und es kommt zu einer, so denke ich, Befreiung von emotionalen Faktoren – nicht nur in der Medizin, ich hoffe, auch im Gerichtswesen oder wo auch immer. Wir brauchen eine Entemotionalisierung bei bestimmten Fragen und eine Versachlichung, und wer kann das besser als künstliche Intelligenz? Sie optimiert Frühdiagnose und Diagnose, verbessert die Medikamentenentwicklung, ermöglicht personalisierte Therapie – wir sind am Weg dorthin –, reduziert Kosten und demokratisiert den Zugang zu Forschungsergebnissen und wissenschaftlichen Ergebnissen und Therapie.

Es gibt aber Herausforderungen, Limitationen: Wer ist verantwortlich, wenn die KI einen Fehler macht? Wer trägt diese Verantwortung? Ich glaube, Frau Prof. Druml hat einen schweren Stand, weil sie das beantworten muss. Wem gehören die Rechte an von KI geschaffenen Beiträgen, zum Beispiel von medizinischen Artikeln? Haben Patienten heute und morgen genügend Vertrauen, und wie kann man die KI in den Praxisalltag einbinden? Wir haben das schon besprochen: Kann eine KI empathisch sein?

Da gibt es einige Warnungen. Die Weltgesundheitsorganisation hat – das ist vom 18. Jänner dieses Jahres – gewarnt, dass man, wenn man zum Beispiel in North Carolina in den USA Datensätze von, sagen wir, zwei oder fünf Millionen Menschen generiert, die Schlussfolgerungen, die man aus diesen Datensätzen zieht, nicht automatisch beispielsweise auf eine Population in Südafrika übertragen kann, weil es ja ethnische Differenzen und auch Umweltdifferenzen und so weiter gibt. Das darf man nicht sozusagen mit geschlossenen Augen machen, sondern muss das mit sehendem Auge sehr vorsichtig durchführen.

Zuletzt noch eine Warnung, die mich doch sehr betroffen gemacht hat:

*****

(Es folgt eine Videoeinspielung:)

Meine Damen und Herren, liebe Leserinnen und Leser des Redaktionsnetzwerks Deutschland! Hören Sie jetzt einmal genau hin. Ich klinge vielleicht wie der Bundeskanzler, aber ich bin es nicht. Diese Worte werden von einem digitalen Olaf-Scholz-Klon gesprochen. Sie wurden mir von einem RND-Journalisten binnen weniger Minuten in den Mund gelegt. Möglich ist das dank der rasanten Entwicklung künstlicher Intelligenz, sogenannte Deepfakes werden immer einfacher und immer - -

*****

Und immer häufiger – ja, damit möchte ich schließen. Jetzt ist abrupt sozusagen das Dia weg, aber damit möchte ich schließen und Ihnen für die Aufmerksamkeit herzlich danken. Die Vor- und Nachteile haben Sie gesehen und gehört. – Danke sehr. (Beifall.)

Günther Mayr: Vielen Dank, Herr Professor! Er ist echt, er ist da, also keine Angst. So weit sind wir noch nicht, dass wir da Avatare spazieren lassen, aber Sie sehen, wie weit es gehen kann.

Ich habe mir gedacht: Share a dream with me – träume mit mir!, und vielleicht könnte man das ja auch der KI sagen. Versteht die das überhaupt? Das ist ja auch genau die Frage, bei der viele Menschen sagen, es ist schwierig zu sagen, ob ich dem vertrauen kann, ob ich das mit einer Ärztin, mit der ich reden kann, vergleichen kann.

Wir haben jetzt gehört, dass in der Kommunikation die KI unter Umständen manchmal sogar besser ist. Ich glaube, jeder von uns kennt Beispiele, bei denen man sich gedacht hat: Na ja, das hätte er oder sie mir als Mediziner, als Medizinerin auch anders sagen können! – Das sind Erfahrungen, die wir machen und bei denen es wahrscheinlich auch immer wieder notwendig ist, nachzujustieren.

Man sieht auch, dass bestimmte Programme wie große Screenings natürlich auch immer mit Vorsicht zu genießen sind: Was macht man damit? Unter Umständen verunsichert man viele Menschen; sie bekommen Angst vor irgendwelchen Diagnosen, die sich dann vielleicht als falsch erweisen. Diese Abwägungsfragen: Wo setzt man das überhaupt ein, und welchen Nutzen hat es dann schlussendlich?, muss man auch immer im Auge haben – den ganzen Menschen, wie er reagiert, wie er in sich ist, wie er emotional ist. Das können diese Systeme – wie wir am Ende des Vortrags von Herrn Prof. Ludwig gehört haben – ja nicht, sie sind eben nicht empathisch in diesem Sinne. Oder können sie auch das lernen? – Das ist eine Frage, die schwierig ist.

Tatsache ist, dass der Mensch als solcher aus vielen Faktoren besteht – holistisch ist. Da gibt es ein Buch von einem sehr berühmten Wissenschaftler, der heute hier ist, Prof. Johannes Huber. Er ist noch immer außerordentlicher Professor an der Medizinischen Universität Wien, und er hat sich sehr viel damit beschäftigt: nicht nur mit der Frage, was die Medizin kann, sondern auch damit, wo da der Mensch ist. Als ausgebildeter Theologe hat er sich natürlich auch mit vielen Fragen der Sinngebung, der Ethik befasst.

Wie funktioniert es, Herr Prof. Huber? Wie sehen Sie die Zusammenhänge? Ich bitte um Ihren Vortrag. (Beifall.)

Johannes Huber (Außerordentlicher Professor an der Medizinischen Universität Wien): Sehr geehrter Dr. Mayr! Herr Parlamentsdirektor! Meine Damen und Herren! (Der Redner unterstützt in der Folge seine Ausführungen mittels einer Powerpoint-Präsentation.) Wenn man Chat-GPT fragt: Wer bist du, was kannst du?, dann bekommt man eine dialektische Antwort: Einerseits habe ich – so sagt Chat-GPT – eine schwache Seite, und mit dieser schwachen Seite kann ich viele Daten auswerten. Ich kann sie aber nicht nur auswerten, sondern ich kann sie auch bewerten.

Das, meine Damen und Herren, hat für uns Gynäkologen schon eine gewisse Relevanz. Ich darf Ihnen einige Beispiele aus der Gynäkologie, aus der Geburtshilfe und natürlich auch aus der reproduktiven Medizin zeigen.

Die zweite Antwort, die man auch von Chat-GPT bekommt, heißt: Ich habe auch eine starke Seite – eine starke Seite, mit der ich die kognitiven Fähigkeiten des Menschen simulieren kann. – Auch dazu möchte ich als Gynäkologe und Reproduktionsmediziner am Ende nur eine Wortspende anfügen, nämlich die Frage: Kann Chat-GPT eines Tages tatsächlich so etwas wie ein Bewusstsein entwickeln?

Gynäkologie – das auf der Folie ist eine Arbeit, die vor Kurzem erschienen ist, eine große Metanalyse. Sie zeigt uns, dass in einem großen Problemkreis, den wir in der Frauenheilkunde haben, nämlich beim Eierstockkrebs, die Diagnosen tatsächlich sehr unsensitiv und unspezifisch sind. Das heißt, die Früherkennung des Ovarialkarzinoms liegt noch im Argen. Vieles wird erst zu spät diagnostiziert.

Das ist ein Hauptthema der Chat-GPT-Forschung. Wenn Sie sich hier diese Arbeit anschauen, so sehen Sie, dass alle Autoren aus dem asiatischen Bereich kommen. Würden Sie eine Arbeit heraussuchen, in der die künstliche Intelligenz bei der Robotic Surgery, also bei der Chirurgie mit Roboter, beschrieben wird, dann hätten Sie auch fast nur asiatische Autoren, und das hat möglicherweise auch einen Grund.

Beim Eierstockkrebs ist tatsächlich die Diagnose verbessert worden. Sie sehen hier nicht nur ein Dopplerbild, sondern Sie sehen auch, dass eine Ausarbeitung des Blutflusses um dieses mittlere Areal durchgeführt werden kann, es können Fehlerquellen eliminiert werden. Das zum Beispiel war ein Granulosazelltumor, den man so wahrscheinlich nicht hätte erkennen können.

Ähnlich ist es auch – Prof. Ludwig hat das schon thematisiert – beim Mammakarzinom. Es gibt die Mammografie, das kennen Sie, und das ist nach wie vor die beste Diagnose der Früherkennung. Allerdings hat sie einen kleinen Nachteil, nämlich: es gibt zu viele falsch positive Fälle, und das ist auch etwas, was immer wieder als Argument dagegen angeführt wird. Es werden Frauen dann mit einer positiven Diagnose konfrontiert, sie werden verunsichert, man macht eine Operation, und diese Operation erweist sich dann als nicht notwendig.

Durch die Bildgebung – das ist eine Arbeit aus Wien – können diese Fälle teilweise wirklich stark reduziert werden. Sie sehen hier links zum Beispiel einen Tumor in der Brust, und dieser wäre als Mammakarzinom dargestellt worden. Die Gruppe von der MUW hat sehr schön zeigen können, dass wenn man die KI heranzieht, man dann tatsächlich aus dieser scheinbar problematischen Diagnostik eine akkurate Diagnose machen kann, und bei dieser kommt raus, dass es kein Karzinom ist.

In dem Zusammenhang, Brustkrebs und Hormone, haben wir Gynäkologen uns natürlich schon immer mit einer Frage beschäftigt: Wie kann es sein, dass eine Substanz wie das Östrogen, das Hunderte Millionen Jahre alt ist, das von der Evolution mit der Erhaltung der Art betraut wurde, Krebs erzeugen soll? In dieser Arbeit, zu der wir vom „The New England Journal of Medicine“ eingeladen worden sind, haben wir das thematisiert und reflektiert. Tatsächlich ist die Situation weit komplexer, als dass man sagen könnte, Östrogen erzeugt Brustkrebs. Es scheint offensichtlich – und das war dann noch in der „Science“ – doch so zu sein, dass die Metabolisierung des Östrogens, die Umwandlung in unzählige Metaboliten, die Interaktion mit anderen Substanzen der entscheidende Punkt ist, warum bei manchen Frauen dieses an sich wunderbare Hormon Böses bewirkt.

Im Prinzip – das hat Prof. Ludwig ja auch schon kurz thematisiert – ist diese große „Torte“ in unserem Genom verantwortlich, dass Substanzen umgebaut und abgebaut werden – und natürlich auch das 17-Beta-Östradiol. Sie sehen, wie viele Teile da mitverantwortlich sind, und hinter diesen Teilen stehen natürlich die entsprechenden Gene; diese Gene sind sehr polymorph, die sind von Mensch zu Mensch unterschiedlich. Das kann natürlich dann bei manchen tatsächlich bewirken, dass eine hervorragende Substanz in eine Richtung gedrängt wird – das hängt einerseits vom Genprofil, von den Polymorphismen ab, andererseits aber auch von vielen anderen Substanzen, die ebenfalls durch diese Gene metabolisiert werden –, dass diese Metaboliten dann nichts Gutes, sondern eher Schlechtes machen.

Prof. Mueck – er stammt aus Tübingen – ist da extrem intensiv unterwegs. Sie sehen hier auf der Folie ein Bild, das Ihnen nur einen Teil davon symbolisieren soll, in welche Substanzen diese Metaboliten eingreifen und wie komplex letzten Endes auch die Interaktion ist. Interessant ist, dass Prof. Mueck, der auf dem Gebiet wirklich führend zu sein scheint, der auch im Dezember in Wien war, seine Arbeiten auch in China macht – und Sie sehen hier, er ist dort mit einem relativ hohen Preis honoriert worden.

In der Geburtshilfe ist die künstliche Intelligenz – bildgebendes Verfahren – auch ein ganz wichtiger Faktor geworden, da wir die Diagnose des heranwachsenden Kindes besser analysieren und besser durchschauen können.

Papageorghiou, ein Wissenschaftler aus Zypern, der in London wirklich eine ganz große Karriere gemacht hat, reist von Kongress zu Kongress und stellt vor, was die KI bei der Geburtshilfe und bei der Diagnose des sich entwickelnden Embryos alles leisten kann. Dabei – das hat Prof. Ludwig auch schon gesagt – ist ein Punkt wichtig, nämlich: Die KI kontrolliert uns beim Ultraschall, sie kontrolliert, ob wir tatsächlich die Messungen richtig machen. Sie sehen hier: Die grünen Punkte müssen alle eingehalten werden, und nur dann, wenn unter dieser Voraussetzung die Ultraschalluntersuchung vorgenommen wird, ergibt das Bild tatsächlich eine verlässliche und eine gute Diagnose.

Sie sehen hier auch eine vierdimensionale Auswertung, wobei das jetzt nicht eine einfache Dopplerauswertung ist, sondern der Blutfluss wird durch die KI analysiert. Sie sehen hier die Herzklappe in der 32. Woche eines Kindes. Man kann mit diesem Verfahren in mehr als 90 Prozent der Fälle die Herzfehler des heranwachsenden Kindes in utero nicht nur feststellen, sondern man kann dann auch alles initiieren, damit eine Operation postpartal relativ bald durchgeführt werden kann.

Die KI hat in unserem Fach tatsächlich vieles geleistet, sie leistet noch viel und ist eine große Unterstützung für uns, da die Diagnose im Ultraschall verbessert werden kann. Wir können zum Beispiel vom biparietalen Durchmesser, von den anatomischen Verhältnissen des Kopfes mit der KI auf die Wirbelsäule schließen und etwa eine Spina bifida diagnostizieren. Wir können also praktisch anhand eines Parameters viele andere Parameter mit evaluieren und tatsächlich eine Gefährdung des Kindes oder auch eine Malformation a priori schon erkennen. Natürlich hat die KI auch dazu beigetragen, dass die Bildgebung im Ultraschall phänomenal dreidimensional, vierdimensional geworden ist.

Sie sehen hier ein Gesicht des Kindes; das ist nicht nur als Gag gedacht, sondern dient uns auch dazu, eine Nasen-Gaumen-Spalte voraussagen zu können. Sie können hier mit hundertprozentiger Sicherheit sagen, das Kind hat es nicht, aber wenn das der Fall wäre, dann könnte man unmittelbar postpartal alles schon in die Wege leiten, dass relativ rasch eine kosmetische Operation vorgenommen werden kann. Ähnliches gilt auch für einen fehlenden Finger, auch da ist die Bildgebung tatsächlich phänomenal geworden, sodass man einzelne Finger – und das gilt für die anderen Extremitäten genauso – sehr gut evaluieren kann. Damit könnte man möglicherweise das verhindern, was vor Kurzem vom Obersten Gerichtshof auch in einem Urteil festgestellt wurde, von dem ich persönlich glaube, dass es problematisch ist. Faktum ist aber, dass wir uns in der Geburtshilfe verbessern können, und wir versuchen tatsächlich, all diese Probleme im Voraus zu erkennen und dann auch Vorbereitungen zu treffen, damit wir das verhindern beziehungsweise korrigieren können.

Dritter Punkt in unserem Fach: die Reproduktionsmedizin. In der Reproduktionsmedizin hat die KI, ähnlich wie in der Geburtshilfe, wirklich schon Unglaubliches geleistet und leistet auch Unglaubliches. Es geht bei der IVF darum, dass man im richtigen Moment, zur Zeit des Eisprungs, aus dem mütterlichen Ovar die Eizelle entnimmt und dann außerhalb des Körpers befruchtet – und da kommt es oft auf Minuten an. Es gibt Kairos, den griechischen Gott des richtigen Augenblicks, und den gibt es auch in der Reproduktionsmedizin, denn: Je genauer Sie an den Zeitpunkt des Eisprungs herankommen und je genauer Sie zeitlich die Eizelle entnehmen, umso größer ist natürlich die Wahrscheinlichkeit, dass es zu einer guten Befruchtung kommt. Das ist sicher eine hervorragende Möglichkeit, die IVF zu verbessern.

Hier auf der Folie sehen Sie eine befruchtete Eizelle. Sie sehen im Zeitraffer, wie sich die Eizelle teilt. Die Blastomeren werden vervielfacht, verschiedene Zellen entstehen, und aus der Geschwindigkeit und auch aus der Kinetik, wie wir die ersten Phasen unseres Lebens durchleben, können wir darauf schließen, ob wir im Kulturmedium – das Ganze ist ja in vitro – zum Beispiel eine Substanz hinzufügen müssen, ob im Nährstoff etwas fehlt, ob der pH-Wert nicht stimmt, ob die Temperatur verändert werden muss. Also wir können tatsächlich die Entwicklung des Menschen in den ersten Phasen nicht nur beobachten, sondern wir können optimale Voraussetzungen schaffen. Dabei ist es natürlich nicht uninteressant, zu überlegen, meine Damen und Herren, dass wir alle, die wir hier sitzen, einmal dieses Vorleben hatten, wir sind alle einmal so gewesen. Und wenn alles weiter gut geht, dann sitzen wir weiterhin gesund hier.

Dass man da natürlich auch Injektionen vornehmen kann, dass wir diese Eizelle in ihrer Bewegung beeinflussen können, das ist etwas, was natürlich ethische Perspektiven aufwirft, und interessanterweise haben wir vor 30 Jahren als wahrscheinlich die Ersten überhaupt die Möglichkeit in den Raum gestellt, auch durch eine Publikation, dass man gewisse Substanzen in den sich entwickelnden Embryo hineininjizieren kann – daraus ist dann die Icsi geworden. Wenn das, meine Damen und Herren, die RNA ist, die Mikro-RNA, wo wir dem Kind praktisch Befehle mitgeben können, und zwar im richtigen Augenblick, in dem der Frühembryo diese Befehle auch tatsächlich benötigt, um es dann umzusetzen: Man soll gar nicht darüber nachdenken, was da alles möglich wäre. Technisch aber, meine Damen und Herren, würde das sehr wohl gehen.

Sie können dann natürlich auch die Diagnose in dieser frühen Phase optimieren, sie können die künstliche Intelligenz auch verwenden, um genetische Evaluierungen vorzunehmen, was dann natürlich die Frage aufwirft, ob der Embryo sich weiterentwickeln soll oder nicht – das ist also auch in der bioethischen Diskussion nicht unwichtig.

In der molekularen Medizin – das hat Prof. Ludwig ja auch schon angedeutet – wird natürlich die KI extrem wichtig werden. Sie wird die Wissenshaft verändern, und zwar deswegen, weil die besagten RNA-Stücke ja nicht nur bei der Impfung verwendet worden sind, sondern der Körper kann RNA ununterbrochen bilden, diese RNA ist in der Eizelle und diese RNA-Stücke sind auch im Sperma, und unglaublicherweise reflektiert diese RNA das Vorleben der Eltern. Das heißt, die Eltern können mit der RNA ihr Leben mehr oder weniger dem Kind weitergeben. Vor allem Gewichtsprobleme, aber auch Depressionen, Stimmungsphasen werden von den Eltern über die RNA unabhängig vom Genom weitergegeben.

Sie haben hier also Sperma, diese kleinen gelben Knötchen sind RNAs – das ist eigentlich wie eine Impfung –, und diese gehen also in die Eizelle rein. Wenn der Vater zum Beispiel – simples Beispiel – vor der Zeugung depressiv war, dann gibt er über die RNA, natürlich nicht hundertprozentig, aber sehr oft, diese Anlage dem Kind weiter. Deswegen war im Feuilleton schon die Aufforderung: Väter, lebt gesund, bevor ich euch entschließt, ein Kind zu zeugen!

Das ist also eine Wissenschaft; und natürlich auch, was die Icsi betrifft, die Injektion in die Gameten: Das ist etwas, was auf uns zukommt, und es ist noch nicht abzusehen, was das bioethisch alles für Probleme mit sich bringen wird.

Der digitale Zwilling: Den digitalen Zwilling – Dr. Mayr hat das schon bei Covid kurz reflektiert – gibt es schon, und es gibt ihn beim Spikeprotein. Das Spikeprotein ist in dreidimensionaler Form durch KI schon vorgebaut worden, und man konnte dadurch genau sagen: Wenn man dies ändert, passiert jenes. Das Ganze ist natürlich nicht nur auf die virale Ebene begrenzt, sondern das wird wahrscheinlich auch uns eines Tages mehr oder weniger betreffen. Wir können wie bei einem 3D-Drucker unsere Existenz in einer virtuellen 3D-Form simulieren und können dann mehr oder weniger evaluieren, welches Medikament gut für uns ist und welches nicht et cetera, et cetera. Das ist also Zukunftsmusik, die nicht utopisch ist, die aber sicher noch einiges an Überraschungen bereithält.

Natürlich – und das ist der letzte Punkt – hat die künstliche Intelligenz eines Tages ein Bewusstsein. Prof. Ludwig hat das auch schon kurz thematisiert: Geht sie mit einem Bewusstsein einher? Hat sie Empathie? Kann sie möglicherweise das ersetzen, was nach wie vor der goldene Standard in der Medizin ist, nämlich sich nicht nur Bilder anzuschauen, sondern den Patienten anzugreifen, ihn an die Hand zu nehmen und an der Hand mit ihm durch die Probleme zu gehen? Wird KI das eines Tages auch können?

Faktum ist, meine Damen und Herren: Die KI muss gewartet werden, und ohne Wartung kann sie nichts. Beim Menschen ist das völlig anders, nämlich das menschliche Genom entwickelt sich auch, wir dürfen nicht glauben, wir seien die Endphase der Evolution. Das geht weiter – auch eine Kränkung möglicherweise, für uns jetzt –, und wenn wir unsere Existenz so ähnlich wie die Embryonen, die ich Ihnen vorhin zeigen durfte, in einem Zeitraffer betrachten würden, dann könnten wir sehen, wie dieser Zeitraffer uns und unsere Existenz schon durch die Evolution geführt hat.

Der Homo sapiens ist heute anders als er es vor 2 000 Jahren war, und mitentscheidend ist nicht nur das Genom, sondern es ist das Epigenom. Dieses orientiert sich an drei verschiedenen Aspekten: an der Reproduktion – der Fortpflanzung –, Nutrition – der Ernährung – und am Territorium, wo es lebt. Und da entwickelt sich dann – man könnte, auch eine Kränkung, im darwinischen Sinn sagen: per random – auch das menschliche Bewusstsein, auch der menschliche Körper weiter, ohne dass das a priori für uns, zumindest jetzt, voraussagbar ist. Das ist eine Entwicklung, die weitergeht und die sich an Zufälligkeiten orientiert, aber in diesen drei Gebieten, und das ist natürlich nicht speicherbar.

Das ist übrigens eine der ersten Arbeiten von Prof. Jenuwein. Er war damals am IMP, also am Institut für molekulare Pathologie, und hat – 2001, glaube ich, war das – schon gezeigt, wie sich das in der Epigenetik abspielt: Es werden Ladungsträger, Acetylreste zum Beispiel, weggegeben, andere kommen als Methylreste wieder dazu, und wie von unsichtbarer Hand ändert sich das Genom und es ändert sich auch die Transkription. Nutrition, Reproduction, Territorium: Das sind alles Reize, die das verursachen und die eine völlig neue Entwicklung in der Menschheitsgeschichte, aber auch im kollektiven Bewusstsein bewirken können. Das, meine Damen und Herren, kann man, momentan zumindest, nicht voraussagen. Das ist einer der Gründe, warum es momentan wahrscheinlich nicht möglich sein wird – momentan! –, künstliche Intelligenz mit einem Bewusstsein auszustatten.

Penrose, Sir Roger Penrose, einer der interessantesten Physiker – Nobelpreis 2020, meine Damen und Herren –, hat ein Argument vorgebracht, das natürlich sehr kontroversiell diskutiert wird – Sie wissen das –: Die KI beziehungsweise der Roboter werden nie ein Bewusstsein haben, und zwar deswegen, weil es in der menschlichen Existenz so etwas wie einen quantenphysikalischen Zwilling gibt, nämlich eine Ebene, auf der die Quantenbiologie auch aktiv wird und diese Quantenbiologie letzten Endes auch das Bewusstsein fördert. Das ist zumindest die sehr kontroversiell diskutierte Meinung von Penrose – und da ist er nicht alleine, Dr. Stix hat mir ja gezeigt, dass auch in Asien und in Indien auf dem Gebiet sehr viel geforscht wird –: dass das Bewusstsein, das menschliche Bewusstsein, tatsächlich auf quantenphysiologischen Grundlagen existiert, und zwar in diesen berühmten Mikrotubuli, den Mikrotubuli, die sich in den Neuronen finden, aber auch in der Zellmembran der Amöbe. Sie ist ein Einzeller, sie hat ja kein Bewusstsein, hat keine Intelligenz, aber trotzdem weiß Sie genau, wo sie hinmuss. Und dieses – unter Anführungszeichen – „Bewusstsein“ sei dort gespeichert und kann dann natürlich über das Dualitätsprinzip, über das Entanglement auch in die neuronale Entwicklung eingreifen. Wenn, meine Damen und Herren, das tatsächlich stimmen würde – ich sage das absichtlich im Konjunktiv –, dann hätte natürlich die KI nie ein Bewusstsein, denn sie, die Maschine, hat keine quantenbiologische Ebene. – Wie es auch sei.

Das war jetzt in Davos, 19.1.2024: „Sam Altman warnt [...] vor seiner eigenen Erfindung“ und sagt: Man muss skeptisch sein. Möglicherweise ist der Homo sapiens noch nicht so weit.

Der Chefredakteur der „NZZ“ hat in ähnlicher Weise, allerdings in einem anderen Zusammenhang, die KI auch infrage gestellt. Er meint: Der „Untergang des Abendlandes“, KI, Untergang der Welt.

Nein, sagt er auf der einen Seite, denn es ist gerade die „faustische Zivilisation“, die so wie Goethe „rastlos, wissbegierig und obsessiv“ ist. Man möchte „den Dingen auf den Grund gehen“, man möchte sie erforschen und man möchte immer weiterforschen, forschen – was sehr gut ist.

Allerdings meint der Chefredakteur, es gibt nicht nur den Faust, sondern es gibt bei Goethe auch den Mephisto, und möglicherweise ist das letzten Endes die Dialektik, die Dialektik, die entscheidet, wie wir die KI verwenden und wie sie eines Tages verändert wird; denn neben dem bereits entschiedenen Duell – um einen Satz von Peter Sloterdijk zu modifizieren – zwischen Hegel und Marx gibt es noch ein zweites, das seltener wahrgenommen wurde, nämlich die Konfrontation der faustischen KI mit dem mephistolischen Homo. Da stehen zwei große Konzeptionisten gegeneinander, und ihre Schlacht ist noch nicht ausgefochten.

Ich glaube, so meint Sloterdijk, an dieser Front stellt sich das heutige Denken auf. Wir sehen jetzt eine Titanenschlacht zwischen einer biologisch-evolutionären Weltauslegung und einer neuen elektronischen Kulturtheorie. Das ist der große Kampf unserer Zeit. – Ich danke Ihnen für Ihre Aufmerksamkeit. (Beifall.)

Günther Mayr: Vielen Dank für diese philosophischen Einblicke, die uns ja in der Tat alle bewegen. Ich weiß nicht, wie es Ihnen bei diesen Embryobildern geht. Da gibt es jetzt eben die Möglichkeit, wirklich einzugreifen, und man denkt sich dann: Irgendwann ist dieser Embryo ein Mensch und wird das Ganze vielleicht wieder weiter vorantreiben – kann ihn die KI dann daran hindern oder hat sie ihn durch verschiedene Methoden schon daran gehindert?

Das bedeutet: Dürfen wir alles, was wir können? Was macht es mit der Gesellschaft? Was macht es mit der Wissenschaft? Muss die Wissenschaft da zögerlich sein, weil sie eben Mephisto ein bisschen fürchtet, oder soll sie mutig voranschreiten und sagen: Was geht, machen wir einmal, und wir müssen halt schauen, wie wir damit umgehen!

Dafür, wie man damit umgehen soll, haben sich in den verschiedenen Ländern, in verschiedenen Gesellschaften natürlich viele kluge Menschen viel überlegt. Es gibt natürlich Instrumente, die versuchen – abseits von parlamentarischen Entscheidungen, wie sie ja hier in diesem Haus immer wieder getroffen werden –, vielleicht schon eine Vorinformation zu liefern, wie wir denn als Gesellschaft damit umgehen können. Dafür gibt es verschiedene Ethikkommissionen und -beiräte. Das ist durchaus unterschiedlich in den Ländern, aber es sind sich, denke ich, alle einig, dass die KI in Zukunft die ganz große Herausforderung ist.

Viele stellen sich auch die Frage: Ja, wenn wir das jetzt alles so in diese Richtung treiben, besteht nicht auch die Gefahr, dass vielleicht die Chirurgin irgendwann ihr Handwerk verlernt und dann nur noch der Roboter dran ist? Das sind ganz große Fragen, mit denen sich eine Frau sehr intensiv beschäftigt und auch immer wieder konfrontativ damit umgeht: Christiane Druml, Vorsitzende der Bioethikkommission. – Ich bitte um Ihren Beitrag. (Beifall.)

Christiane Druml (Inhaberin des Unesco-Lehrstuhls für Bioethik): Sehr geehrte Damen und Herren! Ich freue mich, hier zu diesem Thema reden zu können, und will eigentlich mit einem Statement beginnen. (Die Rednerin unterstützt in der Folge ihre Ausführungen mittels einer Powerpoint-Präsentation.) Die berühmte, renommierte Zeitschrift „The New England Journal of Medicine“ – wir haben sie in den beiden vorherigen Vorträgen schon das eine oder andere Mal gesehen – hat mit diesem Jahr ein eigenes Journal für künstliche Intelligenz, „The New England Journal of Medicine AI“, gegründet. Das ist ein Foto der ersten Nummer, die uns eben eigentlich sagt: Ja, die künstliche Intelligenz ist gekommen, um zu bleiben. – Gut, wie gehen wir – und wir wurden ja schon als Bioethikkommissionen angesprochen – damit um?

Ich werde Ihnen jetzt einen kleinen Exkurs darüber, was Bioethikkommissionen sind und was wir so machen, geben, bevor ich zu den Details komme.

Wir sind ein Politikberatungsgremium – für den Bundeskanzler –, sind im Jahr 2001 eingerichtet worden. Es gibt derzeit 24 Mitglieder, gleich viele Männer wie Frauen. Wir kommen aus den verschiedensten Fächern, sind interdisziplinär zusammengesetzt, und sind in Ausübung unserer Beratungstätigkeit unabhängig. Seit der Gründung gibt es 41 Empfehlungen von uns, die Sie sich alle auf Deutsch und auf Englisch durchlesen können, die auf der Website des Bundeskanzleramtes zu finden sind.

Hier noch ein kurzer Ausschnitt aus dieser Verordnung: Es geht eben vor allem um die gesellschaftlichen, naturwissenschaftlichen und rechtlichen Fragen aus ethischer Sicht, die sich durch die unglaubliche Entwicklung der Wissenschaften in den letzten 60, 70 Jahren ergeben haben; die sind eben für uns das Thema und die müssen wir im Rahmen von Empfehlungen für die Praxis oder Vorschlägen über notwendige legistische Maßnahmen bearbeiten. Und das tun wir auch.

Was ist überhaupt Bioethik? – Ich will schon darauf hinweisen, dass es eine Wissenschaft ist. Das ist nicht nur eine Meinung, sondern es ist eine Hardcorewissenschaft. Es ist ein Teilbereich der Ethik, also der Philosophie, es geht um die Reflexionen unserer Beziehung zur belebten Welt und bezieht sich auf moralische Probleme im Umgang mit Lebensphänomenen. Dass wir interdisziplinär sind, zeigt sich auch an unserer Zusammensetzung: Medizin, Naturwissenschaften, Rechtswissenschaften, Philosophie, auch Theologie, Genetik, Sozialwissenschaften.

Es geht eben vor allem um Dinge, die sich in den letzten Jahren in der Medizin entwickelt haben: Intensivmedizin, Organersatz, Organunterstützung, Organtransplantation, Reproduktionsmedizin. Alle diese Dinge haben einfach völlig neue Fragen entstehen lassen. Nicht, dass Ärzte früher nicht auch ethisch gehandelt haben, aber das sind einfach völlig andere Themen. Bioethikkommissionen oder Ethikräte sind in fast allen Ländern der Welt in den letzten 40 Jahren entstanden: in Österreich, Deutschland 2001, in Frankreich 1983; es gibt sie aber auch in Afrika – im Sudan, im Tschad – und auch in der Mongolei. Das ist etwas, das heutzutage einfach eine gesellschaftliche Realität ist.

Die vier Grundprinzipien der Bioethik sind Autonomie – wie das letzte Jahrhundert überhaupt die Selbstentscheidungsfähigkeit, Selbstbestimmung des Menschen geprägt hat –, das Wohltunsprinzip, das Nichtschadensprinzip und die Gerechtigkeit; natürlich sind auch Fürsorge, Solidarität und andere zu erwägen, aber diese Prinzipien bilden sozusagen die Säulen der Bioethik.

Auf dieser Folie zeige ich Ihnen noch die Fragestellungen der Bioethik, die uns immer bewegen – und das wurde ja auch in den beiden vorherigen Vorträgen erwähnt –: Es geht vor allem um den Beginn des Lebens, aber auch um das Ende des Lebens. Beginn des Lebens: Stammzellforschung, Reproduktionsmedizin; Ende des Lebens: Sie erinnern sich, der Verfassungsgerichtshof hat vor zwei Jahren entschieden, es gab ein Erkenntnis zum assistierten Suizid – auch das ist eben eine Frage für uns –, Neurowissenschaften, Ressourcenallokation – die wir ja heute als sehr problematisch erleben – und natürlich auch künstliche Intelligenz.

Betreffend künstliche Intelligenz und Medizin sind die Hauptfragen für uns: Wo oder wem kann sie nützen und wo oder wem kann sie schaden? Gerade im Gesundheitswesen, das haben wir vorhin schon gesehen, gibt es die diversesten Möglichkeiten für die künstliche Intelligenz: Vorhersagen – individuell, global –; vor allem auch das Erkennen von Mustern, Bildern, wie in der Radiologie oder in der Dermatologie, wo das besonders wichtig ist; Diagnostik; Therapie – individualisiert –; Präzision – personalisierte Medizin –; auch Robotik – Operationen. Das sind alles nicht nur Schlagworte, sondern sie füllen sich auch mit Inhalten. Das ist also ein wirklich heterogenes und extrem breites Feld, mit dem wir da konfrontiert sind.

Wesentlich ist, dass der Patient und die Patientin im Mittelpunkt stehen. Hier sehen Sie ein Diagramm, patientenzentrierte Medizin, und dort, wo der Pfeil ist, das ist ein Teil dieser patientenzentrierten Medizin, die Digitalisierung und eben die künstliche Intelligenz, die sich auch zum Nutzen für den Patienten entwickeln kann.

Ich glaube, wir, gerade auch als Bioethikkommissionen, sind nicht nur aufgerufen, die negativen Dinge zu sehen und die Probleme anzusprechen, sondern genauso auch dort, wo es nützt, dies zu unterstreichen. Ich glaube, das ist ganz wichtig, weil ja eigentlich immer, auch in den Medien, vor allem die Probleme der künstlichen Intelligenz besprochen werden. Man muss da schon beide Seiten – zum Nutzen des einzelnen Menschen, zum Nutzen der Gesellschaft – sehen.

Hier sehen Sie eine vor zwei Jahren entstandene Umfrage von Statista: Wie hoch ist das Vertrauen in die Akteure, hier eben Ärzte, Ärzte mit KI-Unterstützung? – Man sieht, 2021 sind Ärzte immer noch diejenigen, denen am meisten vertraut wird; Ärzten mit KI-Unterstützung wird sonderbarerweise nicht mehr vertraut, sondern eigentlich weniger, und der künstlichen Intelligenz alleine ganz wenig im Verhältnis zu den anderen.

Schauen wir uns an, ob das heute auch noch so ist und ob es dafür Grundlagen gibt. Ich habe einzelne selektive Empfehlungen und Publikationen – nicht nur österreichische, auch internationale – herausgesucht, um Ihnen eben ein breites Bild zu geben. Die EU-Kommission hat schon im Jahr 2018 eine hochrangige Expertengruppe für die künstliche Intelligenz – europaweit – gegründet, die eben Ethikleitlinien für eine vertrauenswürdige KI – nicht nur im Gesundheitsbereich, sondern weit darüber hinaus – erstellt hat.

Wir wissen alle, dass im Dezember der EU-AI-Act, das erste Gesetz zur künstlichen Intelligenz in der EU beschlossen wurde. Wunderbarerweise ist auch diese Website direkt von der KI erstellt worden. Man sieht auch den Nutzen europaweit. Ich glaube, Ende September ging eine bildgebende Krebsdatenbank online. Das heißt, der erste Prototyp einer paneuropäischen digitalen Infrastruktur ist aktuell geworden. Sie sehen, wir sind nicht nur national dabei, alles zu erfinden, nein, das geht natürlich über die Grenzen des Landes weit hinaus.

Auch die Unesco als UN-Organisation, die in allen Mitgliedsländern durch eigene Kommissionen vertreten ist, hat Empfehlungen zur künstlichen Intelligenz abgegeben, die von den einzelnen Mitgliedstaaten im Rahmen ihrer Kommissionen auch adoptiert wurden. Sie weist in diesen Richtlinien darauf hin, dass man bestimmte Dinge besonders berücksichtigen soll und vor allem auch in den einzelnen Ländern regulieren soll, also gesetzlich die Dinge, die uns zu denken geben, besonders anschauen und eben auch demokratisch entscheiden soll.

Jetzt komme ich zu einem Dokument, das die Bioethikkommission schon 2018 zum Thema Roboter in der Betreuung alter Menschen veröffentlicht hat. Es gab eine öffentliche Veranstaltung, wo eben auch die Pflege zu Wort kam. Es ist nicht so, dass man sich vorstellen muss, dass die Pflege per se gegen derartige Roboter ist – nicht im Geringsten! Dort, wo sie nützen und nicht schaden, werden sie sehr gerne angenommen.

Was wir empfohlen haben, ist, die Diversität alter Menschen generell wahrzunehmen und zu sehen, dass jeder ein Individuum ist und dass man das natürlich auch gerade in der Pflege besonders berücksichtigen muss. Roboter sollen als Teil eines komplexen Umfeldes konzipiert werden, komplex eben mit Menschen interagierend, und wie überall sollen persönliche Informationen und Daten geschützt werden. Aber überall dort – und das sieht man immer wieder gerade auf dem Gebiet der künstlichen Intelligenz –, wo Kosten- und Arbeitsersparnis möglich sind und daher mehr qualitative Zeit für den einzelnen Patienten, für die einzelne Patientin möglich ist, soll das gemacht werden. Internationale Standards und Richtlinien sollen berücksichtigt werden.

Im Jahr 2020 – man vergisst es fast, weil viele der Dinge, die man während Corona gemacht hat, irgendwie so die Tendenz haben, aus dem Gedächtnis zu verschwinden – haben wir trotz der schwierigen Bedingungen und Videokonferenzen und wenig persönlichem Kontakt eine sehr umfangreiche Stellungnahme zu ärztlichem Handeln im Spannungsfeld von Big Data, künstlicher Intelligenz und menschlicher Erfahrung gemacht; für sie alle auch nachzulesen.

Ich gehe da ein bisschen mehr ins Detail, um die einzelnen Aspekte herauszuholen, damit auch die Furcht, die doch viele Menschen haben, nämlich dass der Arzt obsolet wird, gebannt wird. Die Ärzte werden nicht unnotwendig, ganz im Gegenteil. Diese Form der künstlichen Intelligenz, wie wir sie derzeit vor allem nutzen, ist wie vorhin schon gesagt dazu gedacht, qualitative Zeit für den Einzelnen zu generieren.

Der erste Punkt, den wir im Rahmen unserer Empfehlungen angesprochen haben, ist, dass in dem Moment, in dem digitale Technologien im Sinne des Wohltunsprinzips zu einer Verbesserung führen, es nicht nur zulässig, sondern geradezu geboten ist, sie auch anzuwenden. Dennoch muss das emotionale Wohlbefinden, sowohl der Anwender als auch der Betreuten, der Patienten, gewahrt werden.

Es geht auch um den medizinischen Fortschritt für die Zukunft. Wir sind ja nicht das Ende – wie vorhin schon gesagt wurde –, sondern es geht weiter. Man muss ja auch bedenken – genauso wie beim Klimawandel –, wie es unseren Kindern und Kindeskindern damit geht. Es geht also auch um den medizinischen Fortschritt für die Zukunft.

Allerdings sollen mögliche Quellen von Diskriminierung erkannt werden. Zum Beispiel – die Dermatologie wurde schon angesprochen –: Man kann ein Melanomerkennungssystem nicht nur auf weißer Haut anwenden. Man muss ein System haben, das afrikanische Menschen oder andere Menschen weltweit nicht diskriminiert, und daher auch alle Personen, die an einer Erkrankung leiden können, in die Generierung und das maschinelle Lernen einbeziehen.

Was auch nicht zu einem Obsoletwerden der Ärzte und Ärztinnen führen kann, ist, dass die von der Maschine errechnete Diagnose oder der Therapievorschlag nicht alleine zu einer Entscheidung führen dürfen. Nein, es ist auch noch der Mensch notwendig, um mit dem Patienten zu reden und so weiter. Die menschliche Zuwendung ist ganz bedeutend, und auch die sprechende Medizin muss aufgewertet werden, auch in den Honorierungen, in den Krankenkassen und so weiter.

Was auch ganz wesentlich ist, ist, dass die Ärzte und Ärztinnen die nötigen Kenntnisse erlernen, in den Curricula der Universität, schon in der Schule, um eben richtig mit den Systemen umzugehen.

Dass Datenschutz wichtig ist, brauche ich nicht weiter zu erwähnen, und auch Erklärbarkeit und Transparenz der letztlich getroffenen Entscheidungen, ob mit oder nur zum Teil oder ohne KI, müssen festgelegt werden. Das haben Sie heute auch schon im ersten Vortrag im Detail gehört.

Der Einsatz muss rechtssicher sein. Es sind ja meistens Medizinprodukte, die zugelassen werden müssen, wofür eben auch Verfahren europaweit oder national notwendig sind. Das muss also Hand und Fuß haben und dort verankert sein.

Integration in die Curricula wurde schon angeführt.

Was auch wichtig ist, ist, dass der spezielle und generelle ärztliche Kompetenzerhalt nicht gefährdet sein kann. Das heißt, wenn zum Beispiel eine chirurgische Intervention, eine Operation mit einem Roboter gemacht wird, wobei mehr oder weniger – es gibt ja Roboter, die der Chirurg gar nicht mehr steuert, wie den Hearo zum Beispiel, der Cochleaimplantate vorbereitet – der Roboter alleine tätig ist, und wenn irgendeine Blutung stattfindet, dann braucht es natürlich einen Chirurgen, der imstande ist, diese Blutung zu stillen, wenn der Roboter das nicht machen kann. Das heißt, diese Formen der Kompetenzen müssen erhalten werden; und die Datenethik selbstverständlich auch.

Ich will – damit Sie sehen, dass wir nicht alleine mit solchen Stellungnahmen sind – nur den Deutschen Ethikrat erwähnen, der 2023 eine sehr umfassende Stellungnahme zu Mensch und Maschine, nicht nur zu Medizin, sondern in allen Bereichen, gemacht hat. Es kommen mehr oder weniger die gleichen Aspekte, die auch wir schon 2020 gesehen haben, zur Anwendung. Sie werden vielleicht ein bisschen anders genannt, aber wir sind alle auf einer Schiene sozusagen.

Jetzt komme ich auf einzelne Aspekte – pro und kontra – zu sprechen, die auch wichtig sind, vor allem für die Diskussion, und die ich Ihnen nicht vorenthalten will.

Eines der berühmtesten Bücher, „Deep Medicine“ von Eric Topol, schon 2019 erschienen, war eigentlich noch von einer ganz positiven Prägung überhaupt für die künstliche Intelligenz, weil es damals die generative künstliche Intelligenz, also Chat-GPT, noch nicht gab. Es wird darauf hingewiesen, dass einfach mehr qualitative Zeit von Ärzten und Ärztinnen für Patienten und Patientinnen notwendig ist und dass diese so gegeben wird. Sie sehen, die Entwicklung ist rasant.

Jeder kann das Buch „Digitaler Humanismus“ von Julian Nida-Rümelin – Philosoph und derzeit stellvertretender Vorsitzender des Deutschen Ethikrates – lesen. Auch die Stadt Wien legt einen Schwerpunkt auf diese Philosophie, die die Frage: Worauf muss ich achten, wenn ich künstliche Intelligenz anwende?, einfach beantwortet: dass der Humanismus nicht verloren geht. – Sehr zu empfehlen; wie gesagt, auch als Buch erhältlich.

Mehr Empathie? – Das wurde schon angesprochen. Es gab im Sommer letzten Jahres von einem anderen sehr großen und bekannten Journal in Amerika, dem „Journal of the American Medical Association“, „Jama“ genannt, eine Studie, die Ärzte und einen Chatbot, also quasi einen Antwortroboter, im Rahmen einer Datenbank verglichen hat, wobei eben Menschen Probleme, medizinische Fragestellungen eingeben können, die von Ärzten und Ärztinnen, die dort arbeiten, beantwortet werden. Das wurde richtig wie eine Studie mit all den Details, die eine medizinische, klinische Studie so hat, aufgesetzt, und das Resümee dieser Geschichte ist, dass die Antworten der Ärzte signifikant kürzer waren und daher als weniger empathisch empfunden wurden als die des Chatbots.

Für mich ist das relativ logisch, aber ich glaube, wir sollten daraus lernen, und insofern wäre nämlich nicht nur diese Datenbank ein gutes Vorbild, sondern auch das Schreiben von Arztbriefen sicher etwas, was das Leben von überverwalteten Spitälern sehr erleichtern könnte, und vielleicht wären die Arztbriefe auch für den einzelnen Patienten schöner und angenehmer und eben emotional besser zu lesen.

Laienverständlicher könnte man auch viele Texte machen. Das ist hier ein Vorschlag von einem der bekanntesten amerikanischen Ethiker, Arthur Caplan, und er sagt, das wäre doch wunderbar, große, philosophisch vielleicht anspruchsvolle Texte laienverständlicher zu machen, für ein breiteres Publikum.

Was eben alles hier geändert hat, das haben wir vorhin auch schon gehört, ist Chat-GPT, und wir fragen uns: Wie wird die Zukunft der Good Scientific Practice, also all dieser Standards, die wir an Universitäten, in anderen wissenschaftstätigen Instituten beachten müssen? Welchen Einfluss hat diese generative künstliche Intelligenz auf wissenschaftliches Arbeiten, auf unsere Prüfungen oder schon auf die Schulbildung und vor allem auf unser Leben, unsere Wissenschaft und unsere Gesundheit? Wissenschaft ist ja nicht Selbstzweck, sondern sie soll dazu dienen, uns gesünder zu machen und eine bessere Medizin zu bieten. Wie gehen wir damit um?

Teenager, und das ist schon letzthin in der „New York Times“ erschienen, haben sich unheimlich beschwert, weil in ihren Schulen eigentlich nur über die negativen Seiten der künstlichen Intelligenz berichtet wird, nur die Gefahren, die Gefährdungen, die Risiken, und sie wollen einfach mehr lernen. Ich finde das großartig, wenn schon die Kinder und die jungen Menschen in den Schulen sagen: Bitte, gebt uns doch eine zeitgemäßere Schulbildung! – Und das ist nicht nur in Amerika, sondern überall der Fall. Man neigt dazu, die Gefahren irgendwie so zu sehen, dass sie eigentlich an einer guten Ausbildung hindern.

Einzelne Wirklichkeiten: Wir alle wissen, Suchmaschinen spielen eine entscheidende Rolle für unseren Zugang zu Informationen. Das heißt, wenn man einmal – ich weiß nicht – ein Paar Laufschuhe sucht, dann kriegt man nur noch Reklame für Laufschuhe. Das mag vielleicht da sehr praktisch sein, aber demokratiepolitisch und auch gesundheitspolitisch ist das eine Katastrophe. Hier muss man schon auch andere Kriterien für dieses Ranking finden, das das selbstständige Lernen der künstlichen Intelligenz betrifft.

Sie sehen auf der Folie diesen Ausschnitt aus dem „Standard“. Was machen wir denn? Es gibt ja immer mehr Bücher, und immer mehr Grundlagen werden verwendet, um die künstliche Intelligenz zu trainieren. Da sind vielleicht auch schlechte Bücher oder alternative Fakten oder Bücher, die irgendeinen Blödsinn verbreiten, dabei, und das ist schon ein Risiko, weil das natürlich auch in die künstliche Intelligenz eingeht.

Wir erinnern uns, dass die Autorinnen und Autoren vor allem in Hollywood, aber das betrifft ja alle anderen auch, KI-Konzerne wegen Urheberrechtsverletzung geklagt haben und denen vorwerfen, das geistige Eigentum widerrechtlich als Trainingsmaterial heranzuziehen. Das ist das eine, was übel ist, und das Zweite ist, wenn da noch schlechtes Material verwendet wird und man dem dann ohne Rückfrage glaubt.

Das ist eben eines der Probleme. Wir müssen ständig wachsam bleiben, denn je mehr Information, möglicherweise umso dümmer, weil auch mehr unsinnigere Daten eingelesen werden.

Weiters: Deepfakes. Sie haben Olaf Scholz gesehen, aber das passiert ja auch mit bekannten Ärzte wie hier, wo man nur, wenn man irgendwelche Details kennt, sieht, dass das ein Deepfake ist, dass jemand einen Menschen mit seinem guten Ruf einfach instrumentalisiert, nur um selber irgendwelche windigen Medikamente zu verkaufen, die dann mit dem nächsten Klick angeboten werden, für, glaube ich, 79 Euro, besserer Milchzucker, für die Heilung von angeblich unheilbaren Erkrankungen. Also das ist sicher etwas, wovor wir uns auch regulierungsmäßig hüten müssen.

Mein Resümee: Es gab immer Fehleinschätzungen der Menschheit, und jeder von Ihnen kennt das Beispiel mit dem Zug: dass die Eisenbahn Menschen nicht schneller als mit 30 Kilometern pro Stunde transportieren darf, weil sie sonst sterben oder größten Schaden erleiden. Also man sieht und hört immer wieder derartige Dinge, aber trotzdem haben wir als Menschheit uns weiterentwickelt, halt auch mit gewissen Vorsichtsmaßnahmen.

Was auch ein Faktum ist – auch wieder aus Statista –, ist, dass der Umsatz durch künstliche Intelligenz im Gesundheitswesen im Jahr 2028 im Vergleich zum Jahr 2023 um ein Vielfaches erhöht wird, also eine ungeheure Menge an Milliarden Dollar umsetzen wird.

Das heißt, sie ist da und sie bleibt und wir müssen uns einfach damit in einer guten Art und Weise arrangieren, und das schon von Kindheit an. Wir müssen einfach damit leben lernen. Wir müssen sie in den Schulunterricht integrieren – je früher desto besser –, in die Curricula medizinischer Berufe, in Fortbildungen und in Guidelines, Regelwerke und auch Gesetze.

Daher ist mein allerletzter Satz hier: Es bringt nichts, Chat-GPT zu verbieten! – Und damit danke ich Ihnen sehr herzlich für Ihre Aufmerksamkeit. Danke sehr. (Beifall.)

Günther Mayr: Vielen Dank, Frau Dr. Druml.

Ja, Algorithmusdesaster ist, glaube ich, allgemein anwendbar, das kennt man auch aus Redaktionen. Recherchen über diese Suchmaschinen finden sich zuhauf in den Medien und werden dann auch noch weiter generiert und weiter abgeschrieben. Das ist vor allem im Medienbereich auch eine sehr große Gefahr.

Ich danke Ihnen auch für das positive Bild, das Sie gezeichnet haben, die Chancen, die das Ganze mit sich bringt. Aufzuhalten wird es ohnedies nicht sein, das wissen wir. Der Mensch nutzt die Kulturtechniken, die er sich aneignet, und versucht, sie voranzutreiben. Deshalb sitzen wir auch heute hier und haben alle Lebenserwartungen, von denen vorige Generationen nur träumen konnten; auch wenn manche das nicht wahrhaben wollen, dass Impfungen und anderes unser Leben eben entscheidend verbessert haben.

Der nächste Vortrag hat einen interessanten Titel, wie ich meine: Wer heilt, hat recht. Mit AI-Tools und -Weapons zwischen Kurt Gödel, Donald Trump und Konfuzius. – Solch ein Titel lädt natürlich ein, wenn man ein Journalist oder ein Moderator ist: Was sagt denn eigentlich die KI zu solch einem Titel: Was haben denn Kurt Gödel, Donald Trump und Konfuzius gemeinsam? – Chat-GPT sagt: Alle drei Personen sind in bestimmten Kreisen bekannt und haben einen gewissen Bekanntheitsgrad erreicht. (Heiterkeit.) – Das hätten Sie jetzt nicht gedacht. – Jede dieser Persönlichkeiten hat auf ihre eigene Weise einen Einfluss auf die Gesellschaft gehabt. – Ja, auch wieder eine große Erkenntnis.

Bei Google – dort habe ich einigermaßen Einblick, weil ich dort gute Forscherinnen und Forscher kenne – herrscht großer Katzenjammer, weil die die künstliche Intelligenz unterschätzt haben, Chat-GPT ist ihnen voll in die Quere gekommen und ihr eigenes System haben sie vernachlässigt. Heute sagen die: Hätten wir doch auf unsere künstliche Intelligenz gehört, die hat uns gewarnt, wir sollen sie ernster nehmen.

Ich habe auch in das Google-System – Bard heißt das jetzt, das ist das Chat-GPT von Google – dieselbe Frage eingegeben: Was haben denn Kurt Gödel, Donald Trump und Konfuzius gemeinsam? – Das Ergebnis von Bard ist in der Tat erschütternd: Alle drei waren intellektuelle Überflieger. (Heiterkeit.)

Rüdiger Stix, Ihr Vortrag bitte.

Rüdiger Stix (Sigmund-Freud-Privatuniversität): Herr Dr. Mayr, ich wollte Ihnen an sich hinsichtlich der Kränkungen, die Sie eingangs ja sehr gut beschrieben haben – wie auch Prof. Ludwig und Johannes Huber und wohl auch Frau Dr. Druml weiter ausgeführt haben –, recht geben. Bei diesem Punkt bin ich mir aber nicht ganz sicher, ob Sie recht haben.

Meine sehr geehrten Damen und Herren, Herr Parlamentsdirektor, hochgeschätzte Damen und Herren aus den verschiedenen Fächern und jene aus den parlamentarischen Klubs! Ich bitte um Nachsicht, dass ich Sie jetzt noch einmal 15 Minuten zu all dem, was bereits gesagt worden ist – und ich stimme jedem Wort zu –, mitnehme, und zwar ganz bewusst anhand des Titels, den ich zugegebenermaßen etwas zugespitzt habe, ohne Google und auch ohne Chat-GPT. Und ja: Wer heilt, hat recht – zumindest im Hinblick auf eine gesellschaftliche Akzeptanz; wie auch immer wir Regularien machen, wie auch immer wir mit Ethik und Legistik umgehen.

Ich habe AI als „Tools and Weapons“ – dazu komme ich noch mehrmals – in eine Zeitachse hineingestellt. (Der Redner unterstützt in der Folge seine Ausführungen mittels einer Powerpoint-Präsentation.) Ich habe damals nicht gewusst, Herr Parlamentsdirektor, dass wir heute die Ehre haben, unter dem Sitzungssaal des Reichstages referieren zu dürfen. Ja, ich gebe zu, manche sagen, künstliche Intelligenz beginnt eigentlich mit null und eins, also mit Gottfried Wilhelm Leibniz als Startschuss. Die Inder würden sagen: Nein, nein, null stimmt schon, aber das kommt natürlich aus dem Sanskrit, und das habt ihr irgendwann einmal über die Perser und die Araber in die arabischen Ziffern hineinbekommen.

Es ist aber sicher unbestritten, dass zumindest die Computerwissenschaften – ich komme dazu noch im Detail –, die Denklogik der künstlichen Intelligenz mit Kurt Gödel beginnt, mit dem zweiten Unvollständigkeitssatz, und zwar ununterbrochen seither. Das heißt: Die künstliche Intelligenz beginnt mit Kurt Gödel.

Aus einem relativ simplen Argument, dem zweiten Unvollständigkeitssatz – im Gegensatz zur Mathematik von David Hilbert – ergeben sich – Gödel, Escher, Bach sind so die ersten Ansätze – antagonistische Algorithmen, die sich selbst überschreiben, sobald sie das Problem gelöst haben, und selbst das nächste Problem suchen. Da gibt es für uns, bei unserem heutigen Wissen, keine denknotwendige Grenze – ja, die bestehende Physik, wie wir sie kennen; also bleiben wir einmal in Raum, Zeit und Energie, einverstanden, aber das ist für uns irdische Menschen schon eine relativ große Grenze.

Diese Logik – von Kurt Gödel zu AI als „Tools and Weapons“ – kommt jetzt in eine globale Auseinandersetzung, und da ist schon klar: Es gibt auf der einen Seite die schon mehrfach erwähnten asiatischen Mächte – dazu komme ich heute noch genauer –, das sind nicht nur 1,4 Milliarden Inder, das bevölkerungsreichste Land der Welt, es sind auch 1,4 Milliarden Chinesen, Rotchinesen, das sind noch etwas mehr Chinesen, und noch andere konfuzianische Kulturen, und auf der anderen Seite natürlich die stärkste Technologiemacht der Welt, die stärkste Finanzmacht der Welt, die stärkste Militärmacht der Welt, die Vereinigten Staaten – nächstes Jahr oder Ende des Jahres vielleicht mit einem Präsidenten Donald Trump; vielleicht, aber möglich.

Das heißt: AI als „Tools and Weapons“, KI in ihrer gesamten Dimension, auch künstliche Intelligenz im Gesundheitswesen – dazu komme ich dann sehr detailliert – spielt sich zwischen der Weltmacht Nummer eins gemessen an Technologie, Finanz und Militär unter einem Präsidenten Trump oder einem anderen Präsidenten – ich beharre nicht auf Trump –, und dem Teil der Welt, wo eigentlich die Mehrheit der Menschheit lebt, ab. Dazu komme ich noch etwas ausführlicher.

Warum ist dieser unser Ansatz für Sie wahrscheinlich eine Überlegung wert? Ich komme aus den Militärtechnologien, ich bin Jurist, ich habe in den Kabinetten bei Frischenschlager und zuletzt bis zum Ende bei Werner Fasslabend gearbeitet und habe bis zum jetzigen EU-Forschungsrahmenprogramm Österreich bei Defence Research vertreten; das hat den schönen Namen Elsi: ethical, legal and social impact – alles unlösbare Probleme, auch für uns bei Defence Research. Jetzt arbeite ich an etwas Ähnlichem zu Dual-Use-Problemen, und wir schlagen uns mit Regularien herum, die für uns unlösbar sind.

Ich habe Ihnen daher gleich am Anfang das Bild von jemandem eingeblendet (auf die entsprechende Folie weisend), der auch Jurist ist, er war sogar der Chefjurist seines Konzerns, vor allem aber der Chef seines Konzerns, nämlich Microsoft: Brad Smith, mit „Tools and Weapons“. Er sagt ganz klar etwas, das ja hier in diesen heiligen Hallen keine wirklich neue Erkenntnis ist: Natürlich sind Regularien auch als Waffen einsetzbar, gar keine Frage, und natürlich leidet er, Brad Smith, darunter, dass auch in den USA entweder absichtlich oder aus Unfähigkeit bürokratische Hemmnisse eingesetzt werden. – Ich habe daher das Originalzitat genommen.

In den USA sehe ich aber auch die Formel 1 der künstlichen Intelligenz, die Formel 1 der künstlichen Intelligenz in der Medizin – ich spreche von Frontiermodellen –, und begründe das wie folgt: Jetzt kann man sagen: Formel 1 ist interessant, aber wir wollten eigentlich Le Mans anschauen. Warum nenne ich das Formel 1? Ich nehme Med-Palm 2, Chat-GPT natürlich, ich nehme noch Claude 2 und Inflection Pi dazu – Prof. Ludwig kennt meine Argumentation –, und zwar, weil es noch nie in der Geschichte von Technologiekonzernen die Situation gegeben hat, dass innerhalb kürzester Zeit so viel Geld in ein spezifisches Element hineingesteckt worden ist, fast eine Risikofinanzierung, nämlich in Training, Trainingsdaten und Trainingsinfrastruktur, wie jetzt in diese vier. Jeder Investor, der da mitgeht, weiß: Das Geld hat er entweder in einem Jahr verbrannt, weil ein anderer vorne ist, also die Formel 1 gewonnen hat – und der vierte Platz der Formel 1 ist nicht sehr viel wert –, oder er ist noch einmal ein paar Milliarden reicher.

Neben der Formel 1 gibt es aber auch den normalen Straßenverkehr, also Volkswagen oder Trabi oder etwas Ähnliches, da sind alle Arten von, ich würde sagen, predictive analysis fast unschlagbar, also alle Transformatormodelle, alle LLMs, überhaupt keine Frage. Da gibt es auch den stärksten Einsatz von Open Source, und meine Argumentation ist da relativ simpel, wahrscheinlich bin ich damit nicht weit von Ihnen, Frau Dr. Druml, entfernt, wenn ich sage, das wird sich – gemessen an der Formel 1, der Hightechmedizin, die Johannes Huber oder Prof. Ludwig betreiben – im niederschwelligen Bereich, aber auch – ich habe PBPB genommen, also Personenberatung, Personenbetreuung, das wäre bei uns in Österreich Gewerberecht – am Konsumentenmarkt abspielen. Aber es ist keine Frage: Spitalsdaten werden nicht immer offengelegt werden, genauso wenig wie jene von Finanz, Justiz, Polizei, Militär, und auch Sie in Ihren Parteien und in der Parlamentsdirektion werden nicht alles offenlegen oder nicht alles offenlegen können, wenn Sie nicht wollen, dass der andere von vornherein nicht nur die Algorithmen kennt, sondern auch die Gewichtungen. Das ist ja das Problem bei Open Source: Man legt ja sehr viel auch Intellektuelles, sehr viel Wissen hinein, wenn man Open Source wirklich als Open Source verwendet, deshalb ist Sam Altman schon weit, weit weg von Open Source.

Dazu kommt ein Thema, zu dem zu sprechen eigentlich Johannes Huber am ehesten prädestiniert ist: Ja, selbstverständlich, wir haben nicht nur die Formel 1, wir haben nicht nur den Straßenverkehr hinsichtlich KI in der Medizin und KI in der Gesundheit, es gibt auch noch die Metadiskussionen, die alles kippen können. Wir wissen nicht, ob der nächste Schritt zu einer AGI, zu einer generellen künstlichen Intelligenz, eher von den Mathematikern kommt – Donald Hoffmann –, eher von den Computerwissenschaftlern kommt – Stephen Wolfram –, ob er aus Kalifornien, aus Peking, aus Mumbai, aus München oder aus Zürich – dazu komme ich dann noch – kommt. Ja, es kann daher durchaus sein – auch wenn die USA momentan in der Formel 1 führen; so, jetzt sage ich es wirklich –, dass die AGI, die allgemeine künstliche Intelligenz, vielleicht doch aus China kommt, aus Götterahnen – nicht um also die wahnsinnig vielen chinesischen Namen in Zeitschriften zu haben – gemeinsam mit Konfuzius und in dem Fall ein bisschen Marx und Engels, und eventuell mit chinesischer Medizin – nicht mit traditioneller chinesischer Medizin, sondern halt mit KI. Dasselbe gilt aber natürlich auch – ich habe es schon erwähnt – für Indien – im bevölkerungsreichsten Land der Welt mit Ministerpräsident Modi gibt es demnächst auch Wahlen –, vielleicht kommt die AGI aus dem Sanskrit, mit vedischer Medizin; also Sanskrit, die werden schon Englisch reden, da mache ich mir keine Sorge, aber sie haben einen völlig anderen Ansatz, andere Ansätze, und sind absolut ernst zu nehmen.

Zurück nach Österreich – Sie können dann alles haben, es wird zur Verfügung gestellt –, ins heutige Österreich: Ich habe von Milliarden gesprochen, von Formel 1. Wo liegen wir? – Na gut, den einen oder anderen Weltcupsieger haben wir schon auch, und ja, ich erinnere daran, in der KI hat Sepp Hochreiter schon als Diplomand unter Schmidhuber mit seiner Diplomarbeit jene LSTM – Long Short-Term Memory – gefunden, identifiziert, mit denen Google Milliarden verdient. Die haben ihm noch nichts gegeben; wenn sie ihm etwas geben, dann bin ich gerne bereit, dass wir hier weiterverteilen. Er ist jetzt Professor in Linz.

Ich habe deswegen Linz genommen, weil wir heute das Thema Medizin haben. Na ja, Linz hat die größte Neurochirurgie Europas – zumindest lange gehabt, vielleicht ist die Charité schon voraus –, die sind absolut führend, und da ist Andreas Gruber, der übrigens aus Wien ist. Die sind selbstverständlich mindestens so gut wie die im Bereich der Neural-Lace-Forschung von Elon Musk – ohne die zu unterschätzen oder die Franzosen zu unterschätzen, die können das wahrscheinlich auch; und die Wiener auch, das will ich jetzt nicht dilettieren.

In Wien – und wir haben über Neuro schon gesprochen – wurde tatsächlich vor 55 Jahren – vielleicht vor 56 Jahren; da muss ich genau nachschauen, weil wir Jänner haben – ein Weltrekord geschafft. Der erste Brainscan – Psycho-Brainscan, wenn man es einschränkt – ist durch einen Wiener, Giselher Guttmann, gelungen. Sein Nachfolger, Claus Lamm, hat immerhin nichts weniger als den Egocentricity Bias entdeckt und definiert. Beide, Giselher Guttmann – schon etwas betagt, aber noch sehr aktiv – und Claus Lamm, sind noch aktiv, auch gemeinsam in der Österreichischen Akademie der Wissenschaften.

Der erste Brainscan der Welt war jener von Giselher Guttmann. Übrigens: Er ist da viel zu bescheiden, er sagt, ein halbes Jahr vor Maturana. Damals hat man eben nicht auf Knopfdruck publiziert, sondern hat halt gemütlich geschrieben. Vielleicht war Maturana wirklich gar nicht so weit hinter ihm, im Prinzip lag es in der Zeit, aber wir als Österreicher haben es geschafft.

Wir haben also das Potenzial, aber die Fragen, die sich damit stellen, sind natürlich schon dramatisch. Einiges wurde schon gesagt, ich brauche es daher jetzt nicht zu vertiefen, aber: Wie gehe ich mit Brain-Computer-Interfaces um? – Mit einer Erweiterung, mit einem Upload, denn – und jetzt gehe ich wieder ins Parlament – wir haben genau 175 Jahre Kremsierer Reichstag – also zwei Autostunden von hier entfernt zwischen Olmütz und Brünn –, wo die Märzartikel formuliert wurden, die genau jetzt in unserem gültigen Staatsgrundgesetz von 1867 drinnen sind. Natürlich hat damals, beim Staatsgrundgesetz oder in Kremsier, niemand daran gedacht, dass man psychische Prozesse, geschweige denn Gedanken oder etwas Ähnliches auslesen oder gar übersteuern können wird.

Wir bleiben aber im alten Österreich: Woher auch immer – und das ist ein wichtiges Argument, übrigens in den USA eher anerkannt als bei uns – eine AGI, also eine generelle künstliche Intelligenz, kommt, im Skynet, in der Matrix, als Golem – mal schauen, wie man mit den Mikrotubuli und den Golems dann umgeht –, sie ist auf jeden Fall eine Gödel-Maschine. Jetzt klaue ich ein bisschen von Schmidhuber als Doktorvater von Sepp Hochreiter: Sie ist eine Gödel-Maschine und Kurt Gödel war wirklich Österreicher, aus Brünn.

Zur Erinnerung daran, dass auch Albert Einstein wirklich Österreicher war – zumindest seit 1912 –, darf ich eine Brücke nehmen – in dem Fall ist es fast ein journalistischer Trick –, die historisch richtig ist, wobei es im Prinzip ein bisschen Funfact ist: Kurt Gödel kam zu seinem Freund Albert Einstein über die Transsibirische Eisenbahn – das war in einer bestimmten historischen Phase möglich, das können wir dann in der Diskussion vertiefen, brauchen wir aber nicht.

Meine Damen und Herren, jetzt kommen wir aber zum ganz entscheidenden Punkt: 55 Prozent der Menschheit leben südlich der Transsibirischen Eisenbahn und wir haben dort – wenn man die Nordkoreaner mitrechnet – drei Nuklearmächte, also China, Indien und Pakistan, und wir haben zumindest fünf Weltkulturen. Die Frage ist ein bisschen, wie man das orientiert, aber ich würde vom Ansatz her, wie man KI denkt, wie man Philosophie denkt, wenn man Weltbilder hat, zumindest folgende Weltbilder ernst nehmen: die Han-chinesischen Götterahnen, die ich schon zitiert habe – in der Volksrepublik China mit Hegel und Marx und natürlich Konfuzius; aber es gibt natürlich Han-Chinesen nicht nur in der Volksrepublik China –, gegenüber dem Hinduismus – und damit meine ich nicht nur Premierminister Modi – und einem indo-tibetischen Buddhismus, der eher nach Fernostasien gehört, im Gegensatz zum Mahayana-Buddhismus in Japan, der natürlich mit Shintoismus und Konfuzianismus amalgamiert ist, oder – bitte nicht zu vergessen – Südkorea, das absolut ernst zu nehmend Technologie macht, in dem Fall mit einem Taoismus. Und wenn wir schon in der Gegend sind, also südlich der Transsibirischen Eisenbahn, haben wir den Islam rund um Pakistan und den drittgrößten Staat der Welt – das dürfte nicht ganz richtig sein, vielleicht ist es nur der viertgrößte Staat der Welt, wenn die USA noch größer sind; einwohnermäßig sind Indonesien und die USA ungefähr gleich –, nämlich Indonesien.

55 Prozent der Menschen mit zumindest fünf der Weltkulturen leben also südlich der Transsibirischen Eisenbahn – dies nur, damit wir sozusagen wissen, es ist nicht alles Donald Trump und leider Gottes auch nicht alles Österreich, auch wenn sie natürlich an Gödel-Maschinen arbeiten.

Wir alle zusammen – und das mache ich jetzt nur kurz, denn das wissen Sie – werden natürlich global – ganz egal ob Donald Trump, Konfuzius oder wir – von den berühmten Tsunamis getragen, überschwemmt, aber auch vorangetragen: Das ist natürlich die Datenexplosion von 0 Zettabyte in den Nullerjahren bis derzeit ungefähr 40 Zettabyte – schwer zu sagen, für uns errechenbar, aber fast nicht vorstellbar.

Dann sind es natürlich die steigenden Rechnerfähigkeiten – Moore’s Law. Wir sind derzeit bei 3 Nanometer bei der Chipproduktion, werden auf 1 Nanometer herunterkommen, dann sind wir irgendwann im Bereich Quantencomputing, vielleicht mit Photonen – das brauchen wir nicht zu vertiefen, es gibt gute ORF-Beiträge dazu.

Was man natürlich – auch bei uns in der Legistik – nicht unterschätzen soll: das Law of Simultanity, nämlich die Verknüpfung von allem mit allem. Im Prinzip ist das kein ganz neuer Gedanke, er kommt aus der Kybernetik. Ich habe daran erinnert, das kommt schon bei Ashby’s Law of Requisit Variety oder Stafford Beer’s Viable System Model, und so eben formuliert von Fredmund Malik. Das ist an sich nicht neu, nur jetzt wird es ernst.

Daher darf ich zum Abspann übergehen – sehr viel hat schon Frau Dr. Druml gesagt; ich habe mir dies jetzt nicht verkniffen, ich hätte es rausnehmen wollen, aber für Frau Dr. Druml habe ich es drinnen gelassen –: Eine gute KI kann uns – hoffentlich jetzt schon, aber in ein, zwei Jahren noch viel besser – simulieren –natürlich simulieren –: Wie würde Immanuel Kant – 300. Geburtstag! –, wie würde Sigmund Freud, wie würde Baruch de Spinoza mit uns diese ethischen Probleme diskutieren und vor allem für uns in der Legistik die kontradiktorischen Positionen auf derselben normativen Ebene ethisch auflösen oder eben nicht auflösen und identifizieren? – Wie gesagt, damit werden sich andere Kommissionen herumschlagen und noch unendlich viel zu tun haben.

Ich verlasse Sie mit drei sehr konkreten legistischen Konsequenzen, vor allem in der Medizin, aber nicht nur in der Medizin: Die eine ist die Diskussion, die teilweise schon Frau Dr. Druml angesprochen hat, nämlich die Frage Open Source und IPR, also Intellectual Property Rights – jetzt auch der Prozess „New York Times“ beispielsweise. Wir werden sehen, für Medizin betrifft das vor allem die Patientendaten.

Die andere Konsequenz ist das Zögern oder die Unmöglichkeit, ich würde sagen, so etwas Ähnliches wie bindendes Völkerrecht, internationales Recht, humanitäres Recht – bindendes – herzustellen. Ja, es gibt, Unesco wurde schon erwähnt, alle möglichen Konventionen, aber es gibt nichts wie zum Beispiel die Bioethikkonvention. Ich habe das einmal mit jungen Wissenschaftlerinnen und Wissenschaftlern diskutiert und die haben gesagt: Warum nicht, ist eh klar: Es gibt auch keine Konvention zum elektrischen Strom.

Als letzten von den drei Punkten darf ich Ihnen die Problematik des Rechtsformenmissbrauchs, der derzeit eine Brücke ist, direkt aus dem Kern meines Bereiches bringen: Ist ein Elefant kein Elefant mehr, wenn wir ihn gesetzlich zur Schnecke machen? – Sie alle wissen, es gibt Killerdrohnen, autonome, künstlich intelligente Pattformen, die alle weltweit under human surveillance, man in the loop, unter menschlicher Kontrolle sind. Selbstverständlich leisten alle heilige Eide – von den USA über China, Russland, die Ukraine und bis in den Nahen Osten –, und alle setzen sie ein. Wenn man sie fragt: Was ist denn das, das ist doch ein Elefant und keine Schnecke?, sagen sie: Ja, das ist keine Killerdrohne, das ist Loitering Ammunition!, also ein Rechtsformenmissbrauch, wie ich sage; ich bleibe als Jurist dabei.

Damit entlasse ich Sie auch schon, ohne Fragen beantwortet zu haben, einige Fragen aufgeworfen habend, und nehme als letzte Folie natürlich die Fragen, die alles entscheiden werden, aber diese sollte dann eher Johannes Huber beantworten. – Danke. (Beifall.)

Günther Mayr: Vielen Dank, Herr Prof. Stix, für diese Tour de Force, könnte man sagen, durch juristisches Recht, durch Völkerrecht et cetera.

Ich würde jetzt die vier Vortragenden zu einer Podiumsdiskussion bitten. Vielen Dank nochmals allen Vortragenden!

Ich möchte mit Frau Dr. Druml beginnen: Wenn Sie das jetzt lesen betreffend dieses Brain-Computer-Interface – wieder ein Milliardär, der sich das leistet –: Kommt so etwas wie eine Ethikkommission da überhaupt noch nach? Wie tut man sich da mit solch schnellen und auch mit viel Geld verbundenen Entwicklungen, die ja schlussendlich von reichen Menschen bezahlt werden? Ist das noch einordenbar? Oder wie ist da die Zukunft?

Christiane Druml: Sie sprechen einen wesentlichen Aspekt an: dass Bioethik keine langweilige Materie ist, sondern dass man wirklich immer gefordert wird – ganz egal ob das jetzt im Bereich des Klimawandels ist, im Bereich der Reproduktionsmedizin, ob das Crispr-Cas9 ist und so weiter –, am jeweiligen Stand des Wissens zu sein.

Das betrifft auch wieder etwas anderes, worauf ich sehr viel Wert lege: Wir sind eine sehr heterogene Gruppe. Jeder ist natürlich in einer gewissen Weise Wissenschaftler und mit den wissenschaftlichen Prinzipien und der Methodik vertraut, aber wir brauchen natürlich für all diese Dinge jemanden – der Neurowissenschaften betreibt, einen klinischen Neurologen und, und, und –, der über diese Situation, eben Braininterface, sozusagen für uns, für die Diskussion die Fakten so darstellt, dass wir alle damit auch umgehen können und eben nach den ethischen Prinzipien darüber diskutieren können. – Das ist einmal der erste Punkt, den Sie angesprochen haben.

Ich finde das fabelhaft, erstens für mich selber, weil ich das für ein hochinteressantes Gebiet halte, aber wir alle müssen uns ständig flexibel neuen Fragestellungen widmen. Ob das jetzt ein Milliardär ist oder ein wissenschaftliches Institut, das so etwas auf die Welt bringt, ist ja letztlich eine zweitrangige Frage. Zuerst muss es inhaltlich, materiell diskutiert werden.

Günther Mayr: Sind Sie da mit der amerikanischen Behörde, mit der FDA, up to date, was dieses Thema betrifft – denn das ist ja im Herbst entschieden worden, dass das freigegeben wird?

Christiane Druml: Zu dieser speziellen Frage sind wir im Moment vielleicht nur partiell up to date und sicher nicht alle, weil wir im Moment drei andere Themen diskutieren, aber ich glaube schon, dass es sicher irgendwann demnächst auch auf unsere Tische niederschwebt.

Günther Mayr: Herr Prof. Ludwig? – Bitte.

Heinz Ludwig: Ich möchte nur darauf hinweisen, dass das nichts absolut Neues ist. Wir machen ja heute Cochlea-Implantate bei Leuten, die schwerhörig sind. Auch bei schwerem Parkinson kriegen die Patienten einen Chip – in das Gehirn hinein – und können dadurch ihre Parkinsonsymptome verbessern. Wenn es ein Milliardär macht, dann bekommt es halt mehr Aufmerksamkeit.

Ich denke aber, das muss ja durch Ethikkommissionen gehen, das muss FDA-approved sein, und ich denke, es ist auch wichtig, denn wir wollen ja Menschen, die nicht gehen können, weil sie eine Querschnittläsion hatten und so weiter, wieder zum Gehen bringen, und man muss die Forschung eigentlich akzeptieren und zulassen.

Günther Mayr: Herr Prof. Stix, da sind wir ja eigentlich beim Thema. Das ist wahrscheinlich ein bisschen überverkauft, wie Sie es angesprochen haben. Auf der anderen Seite, sagen Sie, hat man manchmal das Gegenteilige, dass eben aus dem Elefanten, den man schon erkennt, juristisch eine Schnecke gemacht wird, wie Sie es bezeichnet haben, dass man also nicht so ganz das erzählt, was dahintersteckt.

Rüdiger Stix: Ja, natürlich, Herr Dr. Mayr, und interessant wird die Diskussion zwischen Dr. Ludwig und Dr. Druml ja, wenn dann von der Gegenseite der Druck kommt, wenn dann jemand klagt, dass ihm das – von mir aus aufgrund einer Empfehlung einer Kommission – verweigert worden ist und er dadurch Schaden an Leib und Leben, Gesundheit, Vermögen und Ähnlichem erlitten hat. Da wäre vor allem ein amerikanischer Prozess interessant.

In meinem Bereich ist es aber relativ simpel. Wir stehen vor einer ähnlichen Problematik wie wahrscheinlich die Medizin in Duellentscheidungen – ich nenne es jetzt ganz bewusst so: Duellentscheidungen. Was mache ich mit dem besten Stab an klügsten Köpfen – Männer und Frauen, jahrelang trainiert, bestens erfahren –, wenn ich vor einer Duellentscheidung stehe, wo es auf Sekunden ankommt – medizinisch, militärisch, an der Börse, wo auch immer –, einer komplexen Entscheidung – also jetzt keinem Stellwerkproblem, sondern einer komplexen Entscheidung –, und die KI klopft mir auf die Schulter und sagt: Bitte in 3 Sekunden, 2 Sekunden, 1 Sekunde! – Wahrscheinlich werde auch ich auf Empfehlung der KI auf den Knopf drücken, nicht zuletzt als Jurist überlegend: Was erkläre ich, wenn die KI recht gehabt hat und ich nicht und ich durch mein Zögern Schaden angerichtet habe?

Ob diese KI dann ein Bewusstsein hat und ob sie Mikrotubuli in einer materiellen Form selber von irgendwo herbekommen muss, das ist eine interessante Frage – ob es also eine abstrakte KI im Netz nur als Algorithmus geben kann. Möglicherweise nein, aber das ist jetzt dafür deshalb nicht entscheidend, weil es genügt, wenn sie hinreichend simuliert und in der Simulation Menschen oder menschlichen Expertengruppen haushoch überlegen ist.

Günther Mayr: Herr Prof. Huber, Sie haben dieses Beispiel gebracht: Die KI entdeckt den Lungentumor, und zwei Jahre später sieht man, sie hat recht gehabt. Was sagt man da dem Patienten?

Johannes Huber: Ja, das war ein wirklich hervorragendes Beispiel von Prof. Ludwig. (Moderator Mayr: Entschuldigung!)

Man wird ihm die Wahrheit sagen müssen. Man muss immer die Wahrheit sagen und man soll sie nicht verschleiern. Es gibt halt auch in der Diagnose und im Arzt-Patienten-Gespräch eine Evolution, es gibt auch ein Weiterkommen in der Diagnostik, wobei meines Erachtens das grundsätzliche Problem darin besteht – Elefant und Schnecke –: Wie entsteht das kollektive Bewusstsein? Wie werden aus diesen Aktionspotenzialen, die in unserem Gehirn ablaufen, Bewusstseinsinhalte für uns persönlich, aber natürlich auch für die Gesellschaft? Denn: Auch die Gesellschaft ist mehr oder weniger geprägt von diesen Aktionspotenzialen – und die werden beeinflusst und können so beeinflusst werden, dass tatsächlich aus einem Elefanten eine Schnecke gemacht wird. Die großen Katastrophen der Geschichte sind ja letzten Endes auch damit erklärbar, dass das kollektive Bewusstsein auf Abwege geführt wurde und auf diesen Abwegen dann tatsächlich große Verbrechen entstanden sind.

Ich glaube also, das, was für uns persönlich wichtig ist – wie wird aus dem elektronischen Aktionspotenzial ein Bewusstseinsinhalt? –, das ist auch für die Gesellschaft eine zentrale Frage und hat sehr wohl mit der Interpretation der KI etwas zu tun.

Günther Mayr: Herr Prof. Ludwig, Entschuldigung, dass ich das falsch zugeordnet habe, das war natürlich Ihr Beispiel.

Es gibt ja auch Studien, in denen man sagt: Das funktioniert so gut, wir brechen es ab, wir machen jetzt nicht mehr Placebogruppen, wir wissen, es funktioniert! – Das sind ja auch Entscheidungen, die Ärztinnen, Ärzte dann treffen und bei denen man sagt: Ja, wir haben den Erkenntnisstand, wir können jetzt sagen, das funktioniert! – Ist da eine KI etwas, von dem man sagen kann, das ist ein Tool, das uns sehr gut weiterhelfen kann?

Heinz Ludwig: Also die Frage ist: Sie haben ein neues Medikament und wollen überprüfen, ob es besser ist als der Standard. Sie müssen eine randomisierte Studie machen, um zu beweisen, dass das neue besser ist, und diese Studie legen Sie auf 1 000 Patienten an.

Es könnte sein – was Herr Dr. Mayr meint –, dass wir nach 250 Patienten wissen, dass das neue Medikament besser ist. Dafür gibt es Datamonitoringkomitees, also externe – von der Studie externe – Experten, die dann beurteilen müssen, ob der Zeitpunkt gekommen ist, die Studie zu entblinden und der Bevölkerung, der Menschheit sozusagen darzulegen, weil der Nutzen zu diesem Zeitpunkt schon festgestellt ist und man nicht weitere 750 Patienten in die Studie bringen möchte. – Das passiert gegenwärtig, und ich finde, das ist sehr okay.

Günther Mayr: Ist da überlegenswert, die KI so einzusetzen, dass diese vielleicht schon schneller weiter sieht?

Heinz Ludwig: Das könnte sein, aber ich glaube, wir alle hier sind der Meinung, dass eine gewisse Vorsicht angebracht ist. Wir müssten beweisen können, dass sie besser ist als unsere Vorhersagemodelle, dann könnte man es sich vorstellen – aber ich denke, es ist ein langer Weg bis dorthin.

Günther Mayr: Frau Dr. Druml, wird man da schon auch von der Technologie getrieben, indem eben Systeme Dinge simulieren, sodass man sagt: Na ja, es könnte sein, aber wir sind noch vorsichtig?

Christiane Druml: Na ja, aber ich glaube, es ist genau so wie auch in der Grundlagenforschung. Es wird breit geforscht, in gewisser Weise ergebnisoffen, und dann, wenn irgendwelche Signale kommen, muss man halt sehen, wie man es vertreten kann, dass das weiter gemacht wird. Ich glaube, das ist ein Prozess, genauso ein Prozess wie auch auf anderen Gebieten, aber wie gesagt: Vorsicht muss den ganzen Prozess begleiten.

Günther Mayr: Herr Prof. Stix, Sie haben einen wichtigen Punkt angesprochen: Wir reden jetzt von der südlichen Hemisphäre, die da von vielen Dingen stark betroffen ist, und die Entscheidungen fallen aber sozusagen im Norden.

Rüdiger Stix: Nicht von der südlichen im engeren Sinn; das sind alles High-Tech-Staaten.

Günther Mayr: Ich habe es jetzt nur geographisch gemeint.

Rüdiger Stix: Etwa so formuliert – wenn ich jetzt diesen von mir aus Hanoi-Zirkel nehme –: Da ist eben Europa nicht dabei, da ist Afrika nicht dabei, da sind die Amerikas nicht dabei – da sind beide nicht dabei! –, das sind aber 55 Prozent der Menschheit, Nuklearmächte, Weltzivilisationen und so weiter. – Aber entschuldige, ich glaube, du hast dich gemeldet.

Johannes Huber: Nein, nein! – Darf ich da nur noch eine Wortspende hinzufügen? Wir haben Prof. Rokitansky, der bereits mit KI und mit Robotic Surgery arbeitet, und er beantwortet letzten Endes die Frage, warum es in diesen Ländern, die du angesprochen hast, tatsächlich die meiste Erfahrung gibt und warum zum Beispiel unter den Autoren von Arbeiten, die über KI in Robotic Surgery publizieren, hauptsächlich Asiaten zu finden sind. Die Meinung von Rokitansky – ich kann das nur wiedergeben – ist: weil das Erlernen der chirurgischen Intervention zusammen mit einer KI in 40 Stunden pro Woche nicht möglich ist.

Man braucht 70 Stunden dazu, und zwar aus den Gründen, die Frau Dr. Druml ohnedies schon erwähnt hat: Was mache ich, wenn eine Komplikation auftritt? Wie kann ich damit umgehen? Wie kann ich mehr oder weniger eine Tischveränderung machen? – Ich muss von einer Operationssituation sofort in eine andere übergehen. Das ist in 40 Stunden nicht erlernbar.

Das ist wahrscheinlich einer der Gründe, warum die Chirurgen aus dieser Region, die du genannt hast, kommen und die das offensichtlich vorantreiben und initial auch schon ganz gut beherrschen.

Heinz Ludwig: Also wenn ich das abkürzen darf: Die europäische Gesellschaft hat sich auf eine Lust-und-Freizeit-Lebensform festgelegt, und die asiatische Gesellschaft ist dabei, sozusagen die technischen Revolutionen vorzunehmen. Das müssen wir akzeptieren. Letztlich kommen wir damit automatisch ins Hintertreffen, aber das ist ein Konsens der europäischen Gesellschaft, und wir Einzelnen werden das nicht ändern können.

Johannes Huber: Heinz und ich haben oft darüber reflektiert; du hast es natürlich besser auf den Punkt gebracht als ich.

Rüdiger Stix: Ich muss leider dagegenhalten, denn wenn wir das akzeptieren – ihr habt natürlich recht –, dann war es das mit uns. (Heiterkeit.)

Bitte zur Erinnerung: Na selbstverständlich: Ich kann auch nicht bei den Philharmonikern – oder bei den Symphonikern, um da keine Noten zu geben; ich kann es natürlich bei beiden nicht – mit 20 Wochenstunden oder 40 Wochenstunden spielen – das ist völlig absurd! –, und ich kann auch keine Skiflugweltmeisterschaft oder einen Abfahrtslauf gewinnen mit 20 oder 40 Wochenstunden. Das ist völlig absurd!

Rokitansky, glaube ich, hat einen da Vinci X also ein sehr, sehr hohes Niveau; der weiß, wovon er spricht, überhaupt keine Frage, und hat wahrscheinlich recht, aber unsere Chirurginnen und Chirurgen und auch die Intensivmediziner – mit denen ich mehr zu tun habe, nicht nur in der Ögari – müssen eben 60 oder 80 Stunden arbeiten und mit künstlichen Intelligenzen gegen indische, chinesische, japanische oder amerikanische Teams mit chinesischen Namen antreten, um zu gewinnen.

Günther Mayr: Ist das ein internationaler Wettbewerb, Frau Dr. Druml? Ist das etwas, das man auch mit diesen Maßstäben misst? Man muss ja auch die Ethik der Arbeitsmoral dahin mitbedenken, oder wie ist das?

Christiane Druml: Ja, aber ich kann nur dem sozusagen Nachdruck verleihen, was Prof. Ludwig gesagt hat: Schon alleine für die Arzt-Patienten-Beziehung und die Kontinuität ist natürlich ein rigides Arbeitszeitgesetz nicht gemacht, also hat der Patient oder die Patientin jeden Tag einen anderen betreuenden Arzt, und das ist sicher eine der Schwierigkeiten.

Wahrscheinlich müssen wir abwägen zwischen einem freizeitgetriebenen Erleben, bei dem die Frage ist, wie wir das finanzieren wollen, wenn wir nicht sehr viel arbeiten und daher auch geringere Pensionen bekommen, und einem ambitionsgetriebenen Leben, um das hier jetzt völlig wertfrei zu sagen. Ich glaube aber – es geht da ja auch um die Ausbildung der Chirurgen und die Ausbildung der Ärzte –, um eine große Menge von Fällen zu sehen, muss ich eine gewisse Zeit arbeiten. Insofern kann, wenn wir uns mit der künstlichen Intelligenz gut stellen, diese vielleicht diesen Mangel an Erfahrung und an Expertise kompensieren.

Dennoch: In meinem Modell und in meinem Beitrag hier sehe ich schon noch den Arzt oder die Ärztin als die letzte Instanz für das Gespräch, für andere Dinge, weil das auch etwas ist, das wir emotional so wollen; natürlich sind aber die Dinge, die vorhin irgendwie plötzlich in diese Diskussion hineingekommen sind, wie das Arbeitszeitgesetz und unsere persönliche Stellung dazu, schon ein wesentlicher Faktor auch unserer Zukunft.

Günther Mayr: Bitte, Herr Prof. Huber.

Johannes Huber: Es geht ja jetzt nicht nur darum, dass man die Ärzte ausbeutet oder dass sie ausgebeutet werden – das ist natürlich unethisch und gehört verboten –, aber es müsste auch die Freiheit geschaffen werden, dass, wenn jemand aus wissenschaftlichen Gründen über die vorgegebene Zeit weiterarbeiten möchte, er das dürfte – und da haben wir auch gewisse Probleme.

Wobei: Ein amerikanischer Präsident, nämlich Roosevelt, hat es noch präziser als du, Heinz, auf den Punkt gebracht: Er hat von der Ethik des anstrengenden Lebens gesprochen – Roosevelt.

Heinz Ludwig: Also wenn man die künstliche Intelligenz fragt: Was ist der Sinn des Lebens?, dann bekommt man eine sehr klare Antwort: Gehe hin, erkenne deine Talente und nutze sie zum Wohl der Gesellschaft und deiner persönlichen Not!, und das heißt: Anstrengung, Talente entwickeln, die man in sich hat, ist etwas, das Lebenssinn stiftet, und das sollte allen bewusst sein. Nichtanstrengen führt zur Verkümmerung der verschiedenen Organe, das ist überhaupt keine Frage.

Johannes Huber: Das haben die sicher von der Konfuzius-Lehre. (Heiterkeit.) Das klingt ganz nach Konfuzius.

Rüdiger Stix: Das könnte bei uns auch vom Tempel von Delphi stammen: Erkenne dich selbst, gnothi seauton!

Johannes Huber: Na ja, das hat aber eine eigene Geschichte. Das heißt nicht: Erkenne dich und deine Eigenschaften!, sondern: Gnothi seauton!, das angeblich der Gott Apollo einer Pythia gegeben hat, soll heißen: Erkenne dich selbst in deinen Grenzen!, und das große Gegenteil davon war die Ursünde der Antike, die Hybris: Man erkennt nicht seine Grenzen, sondern geht über seine Grenzen hinaus. Eritis sicut deus, haben die jüdischen Weisheiten ...

Günther Mayr: Aber erkennt die künstliche Intelligenz ihre Grenzen, Herr Prof. Stix?

Rüdiger Stix: Unter dem Training von Johannes Huber sicher. (Heiterkeit.) Und das ist jetzt nicht nur eine Höflichkeit gegenüber einem wirklich hoch respektierten Wissenschaftler, der Johannes Huber natürlich ist, wie auch Prof. Ludwig, und einer hoch respektierten Bioethikchefin.

Wieder ganz banal: Wer heilt, hat recht. Ich kann gegen Apparatemedizin sein, ich kann Impfgegner sein, ich kann faul sein, ich kann bequem sein, ich kann verfressen sein – ich spreche, ganz ehrlich, nicht über mich –: Wenn ich einen Schlaganfall habe, dann hoffe ich, dass ich irgendwo in eine Spitalseinrichtung komme, wo hoffentlich ein paar Assistenzärzte und Assistenzärztinnen oder Erfahrene sind, hoffentlich mit der bestmöglichen KI, mit der bestmöglichen KI-Robotik, jahrzehntelang ausgebildet und wöchentlich 60 bis 80 Stunden trainierend, um mich zu retten – damit ich danach wieder faul sein kann, aber das ist eine andere Frage.

Johannes Huber: Da gibt es eine tolle Arbeit – entschuldigt, dass ich mich da reindränge, aber die passt dazu, zum Gynäkologen –, die ist rezent erschienen, nämlich: Man hat untersucht, wie die Überlebensrate in den verschiedenen Einheiten ist, wenn man in eine Strokeeinheit eingewiesen wird.

Und interessanterweise: Je mehr Frauen dort gearbeitet haben, umso besser war die Überlebensrate – eine ganz rezente Arbeit; das sagt der Gynäkologe. (Beifall.)

Günther Mayr: Dennoch werden 10 Prozent der Schlaganfälle – haben wir gehört – übersehen. Frau Dr. Druml, das ist doch auch ein Umstand, der Sie beschäftigen muss. Wir wissen auch, wie die Versorgung in Österreich mit den Strokeunits ist, dass es da Regionen gibt, die sehr benachteiligt sind. Sind das nicht auch ethische Fragen?

Christiane Druml: Ganz korrekt, das sind ethische Fragen. Wir sind auch jetzt dabei, eine Stellungnahme zu der nicht nur akuten und temporären, sondern zu der Ressourcenproblematik im stationären Bereich zu machen, wo all diese Dinge, die wir ja gerade besprochen haben, auch drinnen sind, was aber natürlich vor allem die Pflege und den gesamten Kreis der sonstigen Berufsgruppen, die in einem Spital tätig sind, betrifft. Wir haben eine Situation, dass dieser Beruf sichtlich nicht mehr so attraktiv ist, wie er es früher einmal war. Früher wurde er mit Hingabe gewählt, jetzt haben wir da schon ein Problem. Wir haben überall das Problem, aber in diesem Bereich ist es natürlich sehr akut und wirklich jeden Einzelnen potenziell betreffend – ihn selber, seine Eltern, Familie und so weiter. Ich glaube, dass das absolut ein ethisches Thema ist und eben die Gesellschaft und ihre Änderungen betrifft.

Günther Mayr: Ich erinnere mich an ein Gespräch, das ich vor Kurzem mit einem Mediziner hatte: Ein Schlaganfall am Samstag im oberen Murtal ist keine gute Idee. Also das sind die Dinge, die die Menschen schon auch bewegen. Wenn wir jetzt aber von Arbeitszeitmodellen und Sonstigem reden und auch von der Problematik hinsichtlich Personal: Spricht nicht all das für einen viel stärkeren Einsatz einer KI, die zumindest große Teile abnehmen kann? Und: Wie integriert man das?

Heinz Ludwig: Sie haben schon die Antwort darauf gegeben, durch Ihre Frage, die suggestiv war. Das ist überhaupt keine Frage, wir sind halt Menschen und uns unterlaufen Fehler oder wir wissen nicht alles, aber mithilfe dieses automechanischen Lernens und dieser Nutzung großer Datenbanken und den sich entwickelnden Algorithmen werden wir Diagnose und Therapieentscheidungen optimieren können. Also Diagnose können wir ja heute schon, das hat Johannes Huber so schön gezeigt, das können wir jetzt schon. Bei den Therapieentscheidungen brauchen wir noch die Bestätigung, dass es wirklich besser wird, aber ich zweifle nicht daran. Das wird so sein und das wird zum Wohl der Menschheit sein.

Eines würde ich aber auch anführen, weil ich das vielleicht zu wenig betont habe: Jede Innovation, die von Menschen geschaffen wurde, sei es Dynamit oder die Nutzung der Atomenergie, kann großen Nutzen für die Menschen bringen – Dynamit für den Bergbau, Atomenergie für Millionen von Menschen –, aber sie kann auch missbraucht werden, und das ist unser großes Risiko. Vielleicht haben wir über das noch zu wenig gesprochen. – Ich weiß nicht, Herr Dr. Mayr, ob Sie das aufgreifen wollen.

Rüdiger Stix: Verzeihung, Herr Prof. Huber. – Das ist ja der entscheidende Punkt: Es wird missbraucht werden, und entweder haben wir die eigenen Potenziale, die Fähigkeiten in Europa, Supremacy, Autarkie, wie auch immer, die eigenen Fähigkeiten, uns zu verteidigen, zu sichern, oder wir werden überrollt werden, wenn irgendjemand das eben gegen uns anwendet, denn mehr sind wir nicht, wenn ich das jetzt richtig mitgezählt habe.

Günther Mayr: Ja, wir sind ja noch bei Mephisto und Faust.

Johannes Huber: Das ist richtig. Das ist die zentrale Frage: Faust oder Mephisto? Ich persönlich bin vielleicht eher vorsichtig optimistisch, denn es hat nicht nur eine Evolution des Körpers gegeben, sondern es gibt auch eine Evolution des Geistes, und so wie es ausschaut – allen furchtbaren Rückschlägen und allen furchtbaren Katastrophen der Jetztzeit zum Trotz –, scheint schon die Möglichkeit zu bestehen, dass auch der menschliche Geist versucht, sich in eine humanere Gesellschaft hineinzuentwickeln – trotz aller furchtbaren Rückschläge.

Wenn man sich überlegt, wie enorm die Lebenserwartung gestiegen ist: Das ist ja auch letzten Endes die Frucht eines besseren Sozialstaates gewesen – nicht weil wir ein Antiagingprogramm vorgelegt haben, sondern weil die Gesellschaft humaner geworden ist; deswegen leben die Menschen auch gesünder und länger. Wenn man sich überlegt, welche Polymorphie es in Wien um 1900, vor dem Ersten Weltkrieg, gegeben hat. Die Intellektuellen Wiens sind in den Ersten Weltkrieg hineingezogen, als wäre das eine Reise ins Glück. Das wäre heute unmöglich. Auch die Stellung der Frau, eine andere Position, hat sich zum Besten oder zum Besseren – sagen wir so, sie ist noch weiter zu verbessern, aber zum Besseren – gewandt, die Erziehung und so weiter.

Ich möchte also nicht die Hoffnung aufgeben, dass es in dieser zentralen Frage, auch was die KI betrifft, die Entwicklung des Homo sapiens zu einem moralisch eher besser denkenden, Varianten gibt und dass wir das vielleicht anstreben und diskutieren sollen. Dafür haben wir ja auch die Bioethikkommissionen, dass das kollektive Bewusstsein in diese Richtung gestärkt wird.

Günther Mayr: Aber, Sie haben es angesprochen, Frau Dr. Druml, das sind Generating Systeme, das heißt, die Systeme selbst lernen ja auch. Die ersten Computer waren – wenn wir beim Schachcomputer bleiben, Brute Force – nur am Rechnen, Rechnen, Rechnen – Datenbank. Diese Systeme aber ziehen Schlüsse aus dem Ganzen. Die sammeln ja nicht nur Datenbanken ab, sondern ziehen ihre eigenen Schlüsse daraus.

Heinz Ludwig: Lieber Johannes, ich bin fast immer deiner Meinung, aber ich denke, dass die Evolutionstheorie bei uns Menschen nicht mehr greift, weil wir alle, wenn wir auf die Welt kommen, einfach überleben. Das heißt, es gibt keinen Selektionsdruck mehr. Es gibt keinen Druck, dass die moralisch integren sozusagen besser überleben als die moralisch verwerflichen Menschen. Also diese Selektion gibt es nicht.

Das heißt, es kommen Menschen mit einem genetischen Gerüst, das wir auch vor 100 Jahren oder 1 000 Jahren gehabt haben, auf die Welt. Es kann nicht anders sein. Wir sehen es ja in den emotionalen Auseinandersetzungen, die letztlich in kriegerische Auseinandersetzungen münden, und es ist nicht zum Stillstand gekommen. In diesem Sinne, fürchte ich, finde ich nicht genügend Optimismus, dass wir uns da verbessern können – wenn ich sozusagen die Geschichte der Auseinandersetzungen in unserer Welt reflektiere.

Johannes Huber: Es ist immer ein großes Vergnügen, mit Heinz Ludwig darüber diskutieren zu können, und wir müssen das - -

Christiane Druml: Es ist auch deprimierend.

Johannes Huber: Na ja, wir könnten das noch abendfüllend prolongieren. Ich hätte natürlich noch eine Wortspende dazu.

Günther Mayr: Das Böse.

Johannes Huber: Du hast schon recht, das ist mit der evolutionären Dynamik nicht ganz vergleichbar. Allerdings, glaube ich, dass uns die moderne Biologie nun zwei Instrumente in die Hand gibt, die uns zeigen, dass wir durch die Art und Weise, wie wir denken und wie wir sind, völlig unabhängig von dem mutation per random, die Möglichkeit haben, auf unser Genom und unsere weitere Entwicklung hineinzuwirken, und das eine ist zweifellos die Epigenetik. Die Epigenetik prägt ja letzten Endes auch unsere Genaktivität, ich übertreibe jetzt ein bisschen provokativ, auch durch die Art und Weise, wie wir sind. Wenn man sich zum Beispiel gegen das normale Essen versündigt, dann kriegen die Kinder über die RNA schon diese RNA mit, dass man fettleibig wird und dass man das weiße Fett nicht mehr abbauen kann.

Also ich glaube – nur auf den Punkt gebracht, das müssten wir noch lange diskutieren –, dass wir durch unser Denken auch in der Lage sind, die Evolution zu beeinflussen, und dass das nicht nur ein Selektionsdruck ist, der doch random ist.

Heinz Ludwig: Ja, wir könnten, aber es müssten alle mitspielen. Dann hätten wir keinen Herrscher in China, dann hätten wir keinen Herrscher in Nordkorea, dann hätten wir keine Hamas, dann hätten wir keine Auseinandersetzung in der Ukraine. Also wir schaffen es nicht, dass dieses dein Prinzip, dem ich voll zustimme, bei allen Menschen umgesetzt wird, und das führt uns zu der Situation, die wir gegenwärtig erleben.

Johannes Huber (erheitert): Herr Heinz, wir werden einen Klub gründen und dann schauen, ob wir da etwas erreichen.

Günther Mayr: Frau Dr. Druml, Sie sind ja eigentlich der Gegenpart des Bösen. Sie sorgen dafür, dass - -

Christiane Druml: Das höre ich gerne. Ich denke aber, wir tricksen ja auch selber die Evolution aus, indem unfruchtbare Menschen Kinder bekommen. Also in gewisser Weise kommt auf der einen Seite ein Vorteil, der sich auf der anderen Seite gleich wieder irgendwie in einen Nachteil verwandelt. Nur sind wir jetzt auf einer Ebene, die für mich an einem Dienstag zu Mittag in gewisser Weise einfach zu hoch ist (Heiterkeit), und haben uns schon ein bisschen von der künstlichen Intelligenz entfernt, die eigentlich heute im Mittelpunkt stehen sollte.

Ich glaube, ich kann da bei den Deepfakes anschließen. Von allen von uns gibt es so viele Videoaufnahmen, von Ihnen, Herr Dr. Mayr, noch viel mehr, dass jeder Mensch, der Böses will, ein Deepfake von Ihnen machen kann, dass dann auf breiter Leinwand die allerfurchtbarsten Empfehlungen gibt, und jeder wird denken: Ja, wenn es der große Wissenschaftsjournalist Mayr sagt, dann wird es schon stimmen.

Das ist sicher eine Frage in diesem Influencerleben, in all diesen sozialen Medien, die rund um uns sind, nämlich wie wir derartige Meinungsbeeinflussungen vermeiden können, denn die sehe ich schon, besonders auf medizinischem Gebiet, aber auch auf all den wissenschaftlichen Gebieten, wo wir ja in Österreich ein sehr schlechtes Standing haben, sodass wir im Eurobarometer fast die Letzten sind. Das ist meiner Meinung nach alles auch ein Problem für die Demokratie. Ich glaube, da müssen wir als Staat – und wir sind hier im Parlament – regulieren, dass diese Form der Deepfakes nicht allzu leicht gemacht wird.

Günther Mayr: Herr Professor Stix, da bekommen ja Menschen mit der AI ein Instrument in die Hand, das unglaublich mächtig ist. Wenn man das jetzt böse formuliert: Da kann sich auch der Dümmste sehr klug darstellen und mit Deepfakes Böses anstellen. Sehr einfach: Wir haben das am Beispiel des deutschen Bundeskanzlers gesehen, und da gibt es Hunderte Beispiele. Das ist nicht mehr zu unterscheiden, das ist für uns, gerade im Journalismus – da haben Sie etwas Richtiges angesprochen –, ein großes Problem, was jetzt noch real ist und wie wir das überprüfen können.

Rüdiger Stix: Herr Dr. Mayr, Sie sind Journalist, ein sehr prominenter: Was ist der Unterschied zu den Deepfakes vor 150 Jahren, wenn eine Zeitung gelogen hat? Was ist der Unterschied zu den Deepfakes vor 500 Jahren, wenn sich in Flugblättern Protestanten und Katholiken gegenseitig belogen haben? – Ja, es war nicht so leicht verfügbar, einverstanden. Aber die Logik, die Regulierungslogik, und die Notwendigkeit, es zu regulieren, oder die Unmöglichkeit, es zu regulieren, ist im Prinzip ja keine neue Diskussion. Das ist das eine, das ich zu bedenken gebe. (Druml: Die Dimension!) – Ja, ja, unbestritten. Natürlich, Frau Dr. Druml, überhaupt keine Frage.

Ich gebe aber noch etwas zu bedenken: Wenn Johannes Huber recht hat, was ich hoffe – es scheint mir nicht ganz unplausibel –, tendiere ich in dem Fall ein bisschen zu Ludwig – aus einem relativ simplen Grund: Schauen wir uns doch um! Wir haben ein bisschen etwas auch aus der Mutterkatastrophe Europas gelernt, aus dem Ersten Weltkrieg – „Die Schlafwandler“ –, einem Krieg, den so ja niemand wollte. „Ihr werdet zurück sein, bevor im Herbst die Blätter fallen.“ Das war ja nicht nur in Wien, das war in London, das war in Paris, das war in Berlin – und dann haben wir der Reihe nach die Massengräber bekommen, dann haben wir in historischer Reihenfolge Bolschewismus, Faschismus, Hitler, Stalin und so weiter bekommen; das wissen Sie alles. Wir haben heute eher ein bisschen – aber das kommt aus dem Kalten Krieg, also am Ende dieser 30-jährigen Kriegsphase – eine Machtgleichgewichtsphase. Wir haben sie aber nicht gelöst.

Ich lasse Sie jetzt, sozusagen im Schlusswort, nur mit der Erinnerung: Auch wir haben keine Lösung. Und ja, mein Beruf ist es, über die Organisation organisierter, großer organisierter Gewalt – das macht Militär, das macht Völkerrecht, das macht Diplomatie – nachzudenken und möglicherweise, wenn es geht, auch so zu organisieren, dass wir uns schützen können.

Warum haben wir denn in Europa unter der EU-Ratspräsidentschaft Frankreichs keine bessere Lösung gefunden, als dass wir eben die nationale Sicherheit – vom Militär bis zur Polizei – aus dem AI-Act herausgenommen haben? – Weil wir keine Lösung haben, weil man sagt: Na gut, das machen wir im Völkerrecht. Dort haben wir aber auch keine Lösung, sodass wir dann bei den Elefanten und Schnecken und dieser Diskussion landen.

Also wir haben noch sehr viel vor uns, leicht optimistisch mit Johannes Huber, aber die Regularien, die wir seit 500 Jahren – jetzt bin ich wieder bei Ihnen, Herr Dr. Mayr – nicht entwickelt haben, seit 200 Jahren nicht entwickelt haben, haben wir immer noch nicht.

Günther Mayr: Ich denke, das ist schwierig zu vergleichen: das Mittelalter, als die meisten Menschen nicht einmal lesen und schreiben konnten, als es ein Privileg der Reichen oder natürlich auch der Kirche war, die da sehr maßgeblich war. Ob Sie eine Milliarde Menschen mit einer Botschaft erreichen oder einen Abt oder einen König, ist, denke ich, schon ein gewaltiger Unterschied. Und das Problem, das im Journalismus entstanden ist, ist das, dass man so viele Informationen bekommt, dass man auch dort schon Systeme braucht. Sehr viele Medien nutzen eben künstliche Intelligenz, um vorzusortieren, weil das für den einzelnen Journalisten, die Redakteurin nicht mehr zu leisten ist.

Das führt mich wieder zurück zur Frage: Es ist so viel Information da, wir reden ja jetzt nicht nur von medizinischen Diagnosen, sondern von weiterführenden gesellschaftlichen Systemen: Wie muss ein Gesundheitssystem aufgestellt sein? Sind das auch Dinge, wo man sozusagen Maschinen anweist und fragt: Wie könnte ein ideales Gesundheitssystem aussehen?, oder führt das dann schon zu weit? – Frau Dr. Druml.

Christiane Druml: Habe ich Sie jetzt richtig verstanden, dass wir zu viel Information haben und da die künstliche Intelligenz für einzelne Bereiche nutzen könnten? (Mayr: Ja!) Das tun wir ja jetzt auch mit Suchmaschinen schon in einer gewissen Weise. Das hat aber dann wieder dieses andere Problem, und das müsste man dann mit dieser Algorithmenechokammer überkommen, in die wir uns da hineinbegeben. Also ich glaube, jeder, der wissenschaftlich tätig ist, weiß, dass schon alles viel einfacher ist als früher, als man in einem Archiv Dinge bestellt hat, die einem dann nach einer Woche drei Stunden lang zur Verfügung standen. Aber dennoch: Um eine gewisse Technik der Arbeit, so wie sie zu der Zeit üblich war, um einfach die Fakten korrekt herauszufinden, werden wir nicht umhinkommen. Vielleicht gibt es Suchmaschinen, die uns da immer besser helfen, aber ich fürchte, dass für uns nach wie vor eine gewisse Anstrengung vorhanden ist.

Und ja, was Sie gesagt haben: Die Fülle all der Informationen ist für unser aller Leben, die wir vielleicht noch ein ganz normales Buch am Abend vor dem Schlafengehen lesen wollen und uns untertags durch Tausende Seiten durchkämpfen, ein Problem. Da weiß ich aber auch noch nicht, wie wir das ordentlich lösen.

Günther Mayr: Herr Professor Ludwig, Sie haben die Publikationen angesprochen. Ich glaube, im Pubnet gibt es mittlerweile 1,5 Millionen Artikel zum Thema Covid. Wer kann das noch überblicken?

Heinz Ludwig: Ich denke, dass sich die künstliche Intelligenz im Gesundheitswesen in unserem Alltag schon ein bisschen implementiert hat. Alle die, die eine Apple Watch oder eine Samsung Watch haben, können ihren Herzschlag, ihren Blutdruck, ihre Frequenz analysieren. Das gibt es heute schon und das wird natürlich perfektioniert werden. Das ist sozusagen im Kleinen der erste Schritt. Im Großen werden wir dann, denke ich, diese Möglichkeiten haben, die ich aufzudecken versucht habe, dass wir persönliche Gesundheitspläne für den einzelnen Menschen erstellen und ihm zur Seite stellen, was er alles machen könnte, um seine Gesundheit zu optimieren. Aber es bleibt dann immer dem Menschen überlassen, ob er das annimmt. Es gibt ja diese Information schon, aber man muss sie sich heute holen, in Zukunft wird man sie ins Haus liefern.

Wir hören immer von den Patienten: Wenn ich das schon gewusst hätte! Aber wir dürfen als Bürger dieses Landes nicht vergessen, dass wir auch eine Informationsholpflicht haben. Wir müssen uns über entscheidende Themen, die unser Leben betreffen, auch aktiv informieren. Wir dürfen nicht warten – die Intelligenz wird das schon schaffen –, bis das dann ins Haus geliefert wird, aber die Eigeninitiative ist, glaube ich, ganz wichtig, wenn es um die eigene Gesundheit geht.

Günther Mayr: Herr Professor Huber, Sie haben da auch viel Erfahrung, wie sich der Mensch dem Ganzen nähert, mit seinen Ängsten, mit seinen Vorstellungen, mit seinem vielleicht Nichtwissen. Ist hier auch ein Punkt, wo vielleicht der Mensch wieder mehr im Mittelpunkt stehen sollte?

Johannes Huber: Ja, die Emotionalität ist zweifellos ein wichtiger Aspekt auch in der Beurteilung von Dingen. Die wird uns wahrscheinlich die KI noch nicht vermitteln können, denn der Mensch besteht ja nicht nur aus Wissen, sondern besteht auch aus: Wie kommentiere ich dieses Wissen aus meiner persönlichen Lebenssituation, aus meinem Way of Life? Man trägt ja die Jahre und Jahrzehnte mit sich herum, die man erlebt hat, und die prägen uns. Die Falten, die wir im Gesicht haben, gibt es auch in unserer Erinnerung. Jeder von uns macht Dinge mit oder muss Dinge mitmachen, die nicht die leichtesten sind. Das beeinflusst dann natürlich auch, die Erkenntnis beeinflusst die Beurteilung. Ich glaube, der Homo sapiens ist momentan noch etwas mehr als ein Chip, der im Gehirn aktiv ist.

Zu dem, was Prof. Ludwig vorher gesagt hat: „Der Spiegel“ und „Focus“ haben das gleichzeitig gebracht, die recherchieren schon sehr gut. Das sind natürlich populärwissenschaftliche Medien, aber sie recherchieren gut. Die haben diese eine Arbeit dargestellt, dass der Epigenetiker Sinclair mit 60 oder 70 anderen Autoren epigenetisch aufgrund des Methylierungsmusters berechnet hat, wie lange das noch zu erwartende Leben, wenn man so weiterlebt, dauern würde – und das mit einer relativ hohen Präzision.

Wobei man das natürlich auch ändern kann, wenn zum Beispiel ein Raucher die Botschaft bekommt, seine zu erwartende Lebenszeit beträgt noch sieben Jahre, und wenn er das Rauchen beendet, dann steigt dieser epigenetische Code sofort 14 oder 15 Jahre hinauf. Falls das jeder wissen möchte – ich möchte zum Beispiel nicht wissen, wie mein epigenetischer Code mir meine zukünftige Perspektive voraussagt –; das ist eine andere Frage, aber es gibt sie.

Die Epiage Clock – so hat Sinclair das genannt – ist in den Vereinigten Staaten momentan gängig. Man kann da 5 Milliliter Speichel hinschicken und bekommt für 420 Dollar eine Information über das biologische Alter und was man noch zu erwarten hat. Man bekommt auch einen Impetus. Das ist jetzt nicht irgendeine primitive Rechnerei: Man bekommt 12 Leitgene, und die Leitgene sind dann nach den Methylierungs- und Acetylierungsmustern charakterisiert, also wie sich die elektrische Ladung in diesen DNA-Stücken verändert hat, und das ist wieder mit der KI korreliert, mit der zu erwartenden Lebenszeit. Das wäre noch eine Ergänzung zu dem, was Prof. Ludwig gesagt hat.

Ich persönlich aber glaube, dass der Mensch Gott sei Dank noch immer mehr als eine Maschine ist und dass wir unser persönliches Leben auch immer wieder in diese Diskussion hineinbringen müssen – und die kann viele Freuden haben, die kann aber auch innerlich viele Falten besitzen.

Günther Mayr: Frau Dr. Druml, gibt es noch Erwartungshaltungen, wo man sagen muss: Na ja, jeder will wissen, wie alt er wird oder wie sein Risiko ist? – Das sind vielleicht auch Dinge, die man hinterfragen muss – ob das schlussendlich sinnvoll ist –, auch wenn der Wunsch vielleicht da ist.

Christiane Druml: Ich habe nicht alles gehört. Erwartungshaltung - -

Günther Mayr: Erwartungshaltungen mit diesen Gentests, die in den USA gut verkauft werden, dass man sagt: Wie alt werde ich denn, was habe ich für ein Risiko?, und ob man dann auch weiß, man hat mongolische Vorfahren oder was auch immer.

Christiane Druml: Gut, die Gentests im Internet, bei denen man all diese Informationen bekommen hat, sind ja nichts Neues, die gibt es ja schon seit – ich weiß nicht – 15 Jahren in etwa. Dabei ist natürlich die Interpretation das Schwierige, weil ich als Laie ja nicht abschätzen kann, ob 10 Prozent oder 50 Prozent für etwas eine hohe oder eine niedrige Wahrscheinlichkeit sind.

Wir werden diesen Dingen in der Zukunft wahrscheinlich nicht auskommen. Wahrscheinlich wird irgendwann einmal der Tag kommen, an dem jedes geborene Kind – oder vielleicht sogar jedes ungeborene Kind – das Genom völlig dargelegt bekommt, mit all den Möglichkeiten und Gefahren, die so etwas mit sich bringt. Wir befinden uns in einer Entwicklung, in der wir eigentlich ausgeliefert sind. Wenn wir nicht den Kopf in den Sand stecken wollen, geht es da halt darum, als Mensch mit seinem Geist, mit seiner Intelligenz und mit seiner moralischen Ausstattung die richtigen Entscheidungen zu treffen.

Günther Mayr: Ich glaube, das war ein gutes Schlusswort. Ich danke Ihnen für Ihre Referate und für Ihre Teilnahme an der Podiumsdiskussion und Ihnen (in Richtung Publikum) natürlich für das Dabeisein und für das Zuhören.

Ich denke, es war ein spannender Vormittag mit sehr weitreichenden Gedanken, auch in dem Bewusstsein, dass wir vor einer großen Herausforderung stehen, sowohl auf gesetzgeberischer und medizinischer Seite als auch für uns als Gesellschaft. – Vielen Dank. (Beifall.)

Schluss der Veranstaltung: 11.43 Uhr