Ranga Yogeshwar ist einer der renommiertesten Wissenschaftsjournalisten in Deutschland. Auf dem 100. Deutschen Röntgenkongress 2019 hielt er im Rahmen der Eröffnungsveranstaltung die Keynote zum Thema Künstliche Intelligenz. Was uns Menschen von Maschinen unterscheidet, wie künstliche Intelligenz unser Leben verändern kann und welche Rolle den Radiologen und Radiologinnen dabei zukommt, erläutert er im Interview.

Herr Yogeshwar, Industrie 4.0, Arbeit 4.0, jetzt Radiologie 4.0 – Können Sie mit solchen plakativen Labeln eigentlich etwas anfangen?

Die Konnotation 4.0 wird inzwischen gerne verwendet, um Fortschritt zu dokumentieren, um zu sagen, da passiert etwas Neues. Aber man muss natürlich in jedem Feld genauer hinschauen und fragen, was sich denn im Einzelnen verändert. Wenn man sich die Radiologie mit ihren bildgebenden Verfahren vor Augen führt und im Detail betrachtet, was da im Bereich Machine Learning, neuronale Netze, Bildverarbeitung et cetera passiert, erkennt man im wahrsten Sinne des Wortes auf den ersten Blick, dass sich hier große Veränderungen ankündigen.

Hinter 4.0 steht insbesondere die Entwicklung und Anwendung von Künstlicher Intelligenz. Geht es dabei im Kern immer darum, dass Maschinen die Menschen bei der Arbeit nicht nur unterstützen, sondern sie nach und nach ersetzen?

Das ist der nächste, übernächste Schritt, der aber noch weit weg ist. Viele Menschen neigen dazu, neue technische Entwicklungen mit großem Enthusiasmus voranzutreiben und das Bisherige schnell für obsolet zu erklären. Bereits heute gibt es neuronale Netze, die sich dem menschlichen Leistungsniveau nähern, die also beispielsweise in der Lage sind, Auffälligkeiten in Mammografien zu identifizieren. Darüber lesen wir derzeit viel, solche Themen rufen eine hohe Aufmerksamkeit hervor. Künstliche Intelligenz, was auch immer damit gemeint ist, öffnet aber zunächst einmal Fenster zu vielen neuen Fragestellungen, und wir müssen uns genau überlegen, wie wir damit umgehen. Spannend ist etwa, dass ein Großteil der Radiologen die zugrunde liegende Technik, also die algorithmischen Systeme, nicht im Detail versteht. Das heißt, im Moment bauen oftmals medizinische Laien solche Systeme. Denen fehlt aber genau das, was Radiologen haben, nämlich den Kontakt zu den Patienten, ein echtes Verständnis der Fachdisziplin und das notwendige medizinische Hintergrundwissen.

 Stellen Sie sich vor, beim Mammografie-Screening kommt künftig statt des Vier-Augen-Prinzips das „KI-plus-ein-Radiologe-Prinzip“ zum Einsatz. Was halten Sie davon?

Wir werden dann zum Beispiel über Konflikte reden müssen. Was passiert, wenn ein algorithmisches System einen bösartigen Tumor erkennt, der Arzt jedoch mit all seiner Erfahrung zu einem gegenteiligen Schluss kommt? Wie werden wir diesen Konflikt lösen? Und was passiert mit dem Arzt, wenn er den Patienten vielleicht nicht oder anders behandelt und am Ende erweist sich seine Vorgehensweise als falsch? Und umgekehrt: Was passiert mit der Maschine, wenn sich plötzlich zeigt, dass ihre Prognose falsch war? Das ist eine Sache, die wir sehr klar aushandeln müssen: Wer trägt die Verantwortung? Das betrifft nicht nur die Radiologie. Denken Sie an autonome Fahrzeuge. Wer trägt hier die Verantwortung? Ist es der Mensch, der im Auto sitzt, oder der Computer? Hinzu kommt, dass die Idee vom Vier- oder Sechs-Augen-Prinzip in den nächsten Jahren möglicherweise überholt ist. Warum? Weil Künstliche Intelligenz eben nicht nur sehr spezifisch ein Feld angeht, sondern in viele andere Bereiche hineinstreut und zum Beispiel Indikatoren für Krankheiten vielleicht von ganz anderer Seite kommen können. Ich gebe Ihnen zwei Beispiele: Ende 2018 wurde publiziert, dass man mit Hilfe der Bilderkennung bei Porträts bestimmte genetische Krankheiten identifizieren kann. Und Max Little von der Aston University hat mit einem System für akustische Analysen und Sprache nachweisen können, dass allein durch die Sprache zum Beispiel die Okkurrenz von Parkinson mit einer doch sehr erstaunlichen Trefferquote nachgewiesen werden kann. Wir werden in den nächsten Jahren mit einer neuen Form von Medizin konfrontiert werden, die weit über das eigene Feld hinausgeht und die möglicherweise anhand von ganz vielen verschiedenen korrelierten Daten zum Beispiel die Aussage trifft, dass eine Frau Brustkrebs hat, obwohl noch nicht einmal eine Mammografie erstellt wurde.

In der Vergangenheit haben Sie wiederholt einen verantwortungsvollen Umgang mit KI eingefordert. Kann die Radiologie sich an diesem Punkt zurücklehnen, weil der Nutzen, nämlich die bessere medizinische Versorgung für den Patienten, von vornherein ganz klar angelegt ist?

Im Moment ist man da für mein Empfinden ein wenig vorschnell. Es wird gerne suggeriert, dass sei ja alles ganz einfach und unproblematisch. Das mag auch vielleicht zutreffen, wenn es um Werbung geht oder wenn jemand in seiner Fotobibliothek die eigenen Kinderfotos heraussortieren will. Dann ist es sicherlich nicht schlimm, wenn da falsche Zuordnungen passieren. Aber in sensibleren Bereichen wie eben der Medizin, speziell der Radiologie, sind die Konsequenzen eines Fehlers fundamentaler. Man muss eines meiner Meinung nach wirklich verstehen: Die jetzigen Erfolge sind fachfremd. Die Leute, die diese KI-Systeme bauen, sind eben nicht Radiologen, sondern im Wesentlichen Software-Ingenieure, Datenwissenschaftler, hinter denen oftmals auch noch Risikokapitalgeber stehen. Diese Gruppe hat keineswegs ein ausgeprägtes Verständnis für die Feinheiten und Besonderheiten des Fachs Radiologie. Während bei jedem Kliniker oder Radiologen das Wohl des Patienten im Vordergrund steht, ist dies bei Nichtmedizinern anders.

 Sie verweisen auch darauf, dass wir die Komplexität der neuronalen Systeme im Grunde nicht verstehen und auch nicht immer akzeptieren können, dass Kausalität durch Korrelation ersetzt wird. Für die Radiologie erschließt sich jedoch durch KI-Einsatz auch eine völlig neue diagnostische Komplexität. Was bedeutet das aus Ihrer Sicht für das Verhältnis Arzt-Maschine?

Die Komplexität ist etwas, was ein erfahrener Arzt, zum Beispiel ein Allgemeinmediziner, bereits mitbringt. Warum? Weil er seine Diagnose nicht nur auf die Blutwerte reduziert, sondern dem Patienten auch in die Augen guckt oder sich seine Fingernägel, seine Physiognomie anschaut. Das ist genau die Magie der menschlichen Erfahrung, dass wir nämlich anhand ganz vieler verschiedener Indizien vielleicht feststellen: Oh, da stimmt etwas nicht. Das kennt sicher jeder von uns: Sie sehen einen Freund nach längerer Zeit wieder, und schon aus der Ferne fragen Sie sich, was mit ihm los ist. Und dann versuchen Sie im Grunde, mit Komplexität umzugehen, denn Sie nehmen viele verschiedene Faktoren wahr, die Sie nicht explizit benennen können. Und darin sind wir Menschen besser, als man denkt. Das ist das berühmte Bauchgefühl. Wenn Sie Ärzte, aber nicht nur Ärzte, sondern auch Manager fragen: Wie fällst du Entscheidungen? Dann erfährt man, dass Grundlage für Entscheidungen eben nicht nur Daten oder Argumente sind, sondern auch diese Bauchkomponente eine wichtige Rolle spielt. Nehmen Sie zwei völlig unterschiedliche Menschen: Bei dem einen sagt der Arzt, eine bestimmte Eigenschaft gehört dazu, die stört mich nicht. Wenn aber genau diese Eigenschaft bei dem anderen Patienten auftritt, kommt er vielleicht zu einer anderen Einschätzung und denkt: Oha, da mache ich mir Sorgen. Spannend ist nun die Frage, ob diese Bauchkomponente durch Algorithmen numerisch abbildbar ist. Wird man also irgendwann anfangen, in der Breite der möglichen Daten auch sonderbar anmutende Korrelationen zu bauen? Sind wir überhaupt in der Lage dazu, das abzubilden? Die Maschine wird das nicht so einfach hinbekommen, zumindest nicht kurzfristig. Und auch hier geht es wieder um die Frage nach dem zugrundeliegenden Motiv. Steht wirklich das Patientenwohl im Vordergrund? Erreichen wir damit eine substantielle Verbesserung, oder erhöhen wir eher den Nebel der Ungewissheit? Denn diese Art von moderner Diagnostik spuckt Ihnen aufgrund ihrer Komplexität – und ich rede jetzt nicht von der Funktionsweise der neuronalen Netze, sondern schlichtweg von der großen Flut an Daten – ein Risiko aus, und Sie können nicht mehr genau sagen, warum das so ist. Die Folge ist eine Orakelmedizin, bei der die Maschine ein Urteil fällt und der Arzt damit konfrontiert wird und mit seinen verfügbaren Tools dieses Urteil in Frage stellen muss. Aber wer kann dieses Hinterfragen übernehmen, wenn ein Watson-Computer in der Medizin zunehmend die Diagnosen stellt? Es gibt das schöne einfache Beispiel der zweiten Meinung, das jeder Patient kennt. Er geht zu einem Arzt, und wenn er sich unsicher ist, geht er zu einem anderen Arzt und bittet ihn, sich das auch noch mal anzuschauen. Im Zeitalter von Watson können wir das nicht mehr machen, weil beide Ärzte mit derselben Methodik arbeiten.

Das bedeutet, dass wir in der Medizin neben der Maschine immer auch den Arzt bzw. die Radiologin als Korrektiv benötigen?

Ich möchte nur deutlich machen, dass wir uns am Anfang einer sehr spannenden Entwicklung befinden, wir aber nicht den Fehler machen dürfen, vorschnell der Maschine mehr zuzutrauen, als sie kann. Auch wenn das im Interesse vieler Software-Ingenieure liegt, denn deren Werbe-Credo lautet: Das können wir. Insofern ist die Radiologie ein schönes Beispiel, weil sie eine der ersten medizinischen Fachdisziplinen ist, die diese neuen Methoden des Deep Learning im Bereich des Medical Imaging übernimmt. Auch hier gilt es, die neuen Methoden immer wieder zu hinterfragen und Fehldiagnosen zu evaluieren, um Asymmetrien vorzubeugen. Insofern plädiere ich ausdrücklich dafür, dass es genau diese Art von Doppelsystem braucht. Das ist natürlich nicht leicht umsetzbar, weil wir in einer auf Rationalisierung ausgerichteten Welt leben. Im Worst Case gibt es keine Radiologen mehr, sondern nur noch MTRA, die die Bilder machen. Das intelligente System spuckt dann eine Diagnose aus, die dann als Input Grundlage für die weiteren Behandlungsschritte ist. Vielleicht wird das eines Tages so sein, aber dieser Zeitpunkt liegt aus meiner Sicht noch nicht im Morgen oder Übermorgen.

KI-Anwendungen in der Medizin sind im Vergleich zu anderen, industriellen Bereichen noch nicht weit vorangeschritten. Aus Sicht der Radiologie ist ein gewichtiger Grund hierfür, dass erst einmal valide Datensätze in einer ausreichenden Zahl zur Verfügung gestellt werden müssen.

Ganz genau, damit fängt es an, denn viele Trainingsdatensätze sind sehr alt und von ganz unterschiedlicher Qualität. Man muss sich klarmachen, dass diese Systeme wirklich große Mengen an Trainingsdatensätzen benötigen.

Welche anderen Gründe gibt es aus Ihrer Sicht dafür, dass die Medizin dieser Entwicklung noch ein wenig hinterherhinkt? Hat das vielleicht auch etwas mit staatlicher Regulierung zu tun bzw. mit der hohen Sensibilität im Umgang mit Gesundheitsdaten?

Als Gesellschaft, aber auch als Individuen, haben wir im Moment noch keine hohe Datensensibilität. Wir reden zwar immer über private Daten, aber die meisten wissen nicht genau, was das heißt bzw. haben kein Verständnis für das immense Potential dieser Daten. Nehmen Sie nur als Beispiel Ortungsdaten, selbst wenn sie anonymisiert erfasst werden. Das ist der eine Punkt. Der zweite Punkt betrifft die Frage, wie wir, auch in der Wissenschaft, Daten validieren. Von wo kommen Trainingsdaten? Sind diese zertifiziert? Wie sicher können wir sein, dass bei Trainingsdaten nicht möglicherweise a priori schon ein Fehler eingebaut ist? Da vermisse ich noch eine differenzierte Diskussion. Es ist zum Teil erschreckend, auf welcher Basis selbst bei leistungsfähigen KI-Systemen Daten gesammelt und trainiert werden. Irgendwann müssen wir uns auch damit beschäftigen, wie sichergestellt werden kann, dass Daten keine Rückschlüsse auf ein Individuum zulassen, oder damit, wem die Daten eigentlich gehören. Dem Patienten, der Klinik oder der Software-Firma? All diese Dinge sollten wir diskutieren. Derzeit verwenden wir sogar völlig falsche Metaphern. Wir reden zum Beispiel von Datendiebstahl. Also, wenn mein Fernseher gestohlen wird, dann ist der nicht mehr da. Bei Datendiebstahl sind die Daten aber immer noch da. Ich glaube, wir müssen alle zusammen überlegen, wie wir damit künftig umgehen wollen, denn Daten sind der Treibstoff des Fortschritts. Diese neuen Systeme brauchen Daten, um zu lernen, oder anders gesagt: Die Daten sind das Programm. Es geht mir um einen reflektierten Fortschritt, bei dem Daten einerseits validiert sind, andererseits Datenflüsse und Zugriffsrechte klar geregelt werden. 

Stehen die Menschen eigentlich KI-Systemen offen gegenüber oder erkennen Sie hier auch eine gewisse Angst vor der abstrakten Maschine?

Ich konfrontiere in Vorträgen meine Zuhörer immer mit einem sehr konkreten Beispiel. Stellen Sie sich vor, Sie haben eine Krankheit, die bei einem von tausend Menschen vorkommt und zum Tod führt. Sie wachen also eines Tages mit wahnsinnigen Bauchschmerzen auf, gehen zum Arzt Ihres Vertrauens und der sagt Ihnen, ja, das könnte diese Krankheit sein, aber es gibt einen Test mit einer Nachweiswahrscheinlichkeit von 99 Prozent. Ihr Arzt macht bei Ihnen den Test und das Ergebnis ist positiv. Heißt das nun, dass Sie sterben werden? Der Test hat schließlich eine Nachweiswahrscheinlichkeit von 99 Prozent. Jetzt kommt aber die Statistik ins Spiel: Ein Prozent der Testergebnisse sind falsch positiv. Bei tausend Menschen sind also zehn falsch positiv. Ich habe vorhin gesagt, dass die Krankheit bei einem von tausend Menschen vorkommt. Das heißt, ein echter Kranker wird konfrontiert mit zehn, die falsch positiv sind. Damit liegt die Wahrscheinlichkeit, dass Sie tatsächlich diese Krankheit haben, bei zehn Prozent. Das zeigt an einem sehr einfachen Beispiel, dass das Narrativ sehr wohl überlegt sein muss, weil die meisten Menschen schnell damit überfordert sind. Was wir in den nächsten Jahren auch erleben werden, ist an vielen Stellen eine neue Form von Dauerüberwachung. Wir sehen das ja bereits heute bei vielen Gesundheits-Apps. Demnächst sind wir damit konfrontiert, dass uns permanent gesagt wird, ob etwas geht oder nicht, ob etwas für uns gut ist oder nicht. Die Gefahr ist da, dass wir in eine Spirale der Dauerangst und Dauerkontrolle geraten, was psychologisch nicht ganz trivial ist. Wir müssen auch aufpassen, dass eine solche Form von Diagnostik nicht sogar unser Verhalten verändert, wenn zum Beispiel die Versicherung die Senkung des Tarifs von der Weitergabe von Daten, der Teilnahme an einem Test abhängig macht oder umgekehrt bei ausbleibender sportlicher Aktivität mit einem Kostenanstieg droht. Das heißt, was uns als eine großartige Freiheit eröffnet wird, könnte sich bei nichtreflektiertem Umgang in das genaue Gegenteil verkehren, in eine Unfreiheit, eine Einengung unseres Lebens, möglicherweise sogar in eine latente Angstinduzierung. Deswegen ist es, glaube ich, sehr wichtig, sich auch über ethische Dimensionen Gedanken zu machen. Wir müssen den Umgang mit KI-Systemen wirklich in all seinen Facetten verstehen.

Eine ganz andere Form der Angst bewegt manchen Radiologen, nämlich die, in absehbarer Zeit nicht mehr benötigt zu werden. Sie selbst haben das ja für andere Berufe – Hotline-Mitarbeiter, Bankangestellte et cetera – auch bereits prognostiziert.

Wissen Sie, wenn ich eine App habe, die mir Reiseverbindungen anzeigt oder einen Verspätungsalarm für meine Bahnverbindung bietet, dann ist die Wahrscheinlichkeit gegeben, dass für derartige Dienstleistungen auf Menschen künftig verzichtet wird. Wenn Radiologen sich nur als Bilddeuter wahrnehmen, werden sie möglicherweise ebenfalls bald durch Maschinen ersetzt. Wenn sie sich hingegen – und das ist ja eigentlich eher der Fall – als Fachärzte verstehen, die in einem breiteren medizinischen Versorgungskontext agieren, dann ist es vielleicht eher so, dass wir mit den KI-Systemen einfach eine weitere Technik hinzubekommen, die die Radiologen an sich aber nicht obsolet macht. Die Radiologie ist schließlich auch in der Vergangenheit immer wieder mit neuen Apparaten und technischen Entwicklungen konfrontiert worden. Schauen Sie sich nur die Entwicklung der Computertomografen in den letzten 20 Jahren an. Wir sollten deshalb eher von „Interpretationshilfen“ sprechen, bei denen sich die Frage nach der Verantwortlichkeit neu stellt. Die Schnellschüsse und Erfolge, die wir jetzt sehen, sollten uns nicht zu der Aussage verleiten, dass die Maschine morgen schon alle ersetzen wird. Fortschritt wird es nur geben, wenn sich Radiologen mit ihrem Know-how, ihren Kenntnissen und Erfahrungen hier aktiv einbringen. Aber fragen Sie doch einfach mal bei Ihren Mitgliedern, wie viele Radiologen etwas von Deep Learning verstehen.

Das ist möglicherweise noch eine Minderheit.

Das heißt, viele bekommen einen Apparat hingesetzt, verstehen aber im Kern selber nicht mehr, wie dieser funktioniert und wie eine Evaluation erfolgen soll. Genau da muss man vorsichtig sein, denn es gibt sicherlich einige Dinge, die man KI-unterstützt schneller machen kann, zum Beispiel die Größe von Läsionen bestimmen, aber das ist noch lange nicht das, was einen Radiologen ausmacht. Insofern ist mein Petitum: KI ist eine große Chance, aber die Radiologen sollten mitreden, und zwar aktiv. Sie sollten dieses Feld des Fortschritts nicht den Venture Capitalists und Software-Ingenieuren überlassen.

Zum Schluss noch die Bitte um einen Blick in die Glaskugel: Was erhoffen Sie sich von einer KI-gestützten radiologischen Versorgung bzw. medizinischen Bildgebung der Zukunft?

Meine Antwort wird jetzt vielleicht überraschen, aber wenn ich mir etwas wünsche, dann ist es, dass unsere Gesellschaft stabil bleibt. Was meine ich damit? KI ändert im Moment zum Beispiel die Kommunikationsgrammatik einer Gesellschaft. Das führt u.a. dazu, dass wir antidemokratische Tendenzen bemerken. Diese wiederum können durchaus zur Folge haben, dass plötzlich das Solidargefühl einer Gesellschaft zusammenbricht. Das heißt in anderen Worten: Wenn irgendwann gesellschaftliche Umbrüche stattfinden, die den Solidarbegriff als Basis unserer Gesellschaft auflösen, müssen wir nicht groß über Fortschritt reden, denn in dem Moment haben wir ein ganz anderes Problem. Für mich steht deshalb im Mittelpunkt, dass wir einfach diesen Prozess des Wandels, der mit einer doch sehr faszinierenden Technik in ganz, ganz viele Bereiche unseres Lebens hineindiffundiert, stabil gestalten. Darin sehe ich die große Herausforderung der nächsten Jahre. Wenn wir das nicht schaffen, haben wir irgendwann Systeme, die an einer ganz anderen Stelle kippen und damit auch dem Fortschritt insgesamt entgegenstehen können.

 Und wer sollte Ihrer Meinung nach die Verantwortung für eine stabile Ausgestaltung des Fortschritts, für einen reflektierten Fortschritt übernehmen?

Wir alle! Es geht darum, dass zum Beispiel auch Radiologen nicht einfach nur die Empfänger oder Konsumenten dieser Entwicklung sind. Sie sollten die Gestalter sein, weil sie, glaube ich, die wichtigen Fragen stellen, also die, die Software-Ingenieure nicht stellen. Die Radiologie wird sich ohne Zweifel verändern. Es wird Deep Learning-Algorithmen geben, die in der medizinischen Versorgung zum Einsatz kommen. Aber das Verständnis für die KI-Adaption in der medizinischen Versorgung kann nur von den Radiologen selber kommen. Und das bedeutet, sie müssen sich sehr viel intensiver mit diesen Systemen, diesem Denken befassen. Es ist von entscheidender Bedeutung, dass sie diese Zukunft aktiv mitgestalten.

www.drg.de