Rheinisches Ärzteblatt 5/2024

Rheinisches Ärzteblatt / Heft 5 / 2024 25 Forum Die Entwicklung KI-gestützter Diagnose- und Entscheidungsunterstützungssysteme in der Medizin schreitet voran. Welche Folgen das Vordringen künstlicher Intelligenz in die medizinische Versorgung hat und möglicherweise noch haben wird, war Thema eines Symposiums der Ärztekammer Nordrhein. von Thomas Gerst Das könnte man ein gutes Timing nennen. Am selben Tag, an dem das EU-Parlament in Straßburg mit großer Mehrheit für das weltweit erste Gesetz zur Regelung des Umgangs mit künstlicher Intelligenz (KI) stimmte, ging es am 13. März beim OnlineSymposium der Ärztekammer Nordrhein abends um die Frage „Entscheidungsfindung mit KI in der Medizin – Fortschritt ohne Risiko?“ Beim 4. Update-Ethik, moderiert von der Geschäftsführenden Ärztin der Kammer, Professorin Dr. Susanne Schwalen, sollten insbesondere ethische Aspekte beim Einsatz von KI in der Medizin in den Fokus gerückt werden – ein Thema, das offenbar bei den Kammermitgliedern auf großes Interesse stieß; deutlich mehr als 500 Ärztinnen und Ärzte nahmen an der Veranstaltung teil. Unbestritten scheint mittlerweile, dass der KI-Einsatz zunehmend Ärztinnen und Ärzte bei der medizinischen Versorgung von Patientinnen und Patienten und bei der Bewältigung von Routineaufgaben unterstützen kann. Gleichzeitig muss man sich aber damit auseinandersetzen, welche ethischen Probleme daraus resultieren, dass automatisierte KI-Systeme in das geschützte Arzt-Patienten-Verhältnis eindringen. Auch stellt sich die Frage, ob künstliche Intelligenz zur Mitwirkung in eher ethisch aufgeladenen Versorgungssituationen befähigt werden kann oder soll, etwa bei der Patientenaufklärung oder der Ermittlung des mutmaßlichen Patientenwillens. In der Diskussion um den KI-Einsatz in der Medizindiagnostik haben sich Problemfelder herauskristallisiert, die mit den Begriffen „Automation Bias“, „Deskilling“ und „Verantwortungsdiffusion“ kurz beschrieben werden. Professor Dr. Dr. med. dent. Dr. phil. Dominik Groß, Leiter des Instituts für Geschichte, Theorie und Ethik der Medizin der RWTH Aachen, wies auf die Gefahr hin, die aus einem übermäßigen Vertrauen in automatisierte Hilfsmittel und Entscheidungsunterstützungssysteme resultieren kann. Diesem „Automation Bias“ müsse auf ärztlicher Seite entgegengewirkt werden durch die Sicherstellung einer eigenen methodischen Expertise zur Einordnung der Ergebnisse und durch sorgfältige Plausibilitätsprüfung „maschineller“ Resultate, so wie dies auch vom Deutschen Ethikrat in seiner Stellungnahme im März 2023 gefordert worden sei. Automatisierte KI-Prozesse könnten dazu führen, dass das haptisch-praktische Erfahrungswissen und damit verbundene diagnostische Fähigkeiten bei Ärzten verloren gehen, betonte Groß. Dieses „Deskilling“ bedeute, dass zum Beispiel Ärzte immer weniger in der Lage sein werden, mittels Stethoskop oder Palpation des Körpers zu einer diagnostischen Einschätzung zu kommen. In komplexen Systemen mit neuen Schnittstellen zwischen Menschen und KI-gesteuerten Systemen werde es zudem zunehmend schwierig, Verantwortung eindeutig zuzuweisen. Groß sieht hier das Risiko einer Verantwortungsdiffusion. Bei der Zuschreibung von Verantwortung, beispielsweise bei klinischen Entscheidungsunterstützungssystemen, trete an die Stelle des einfachen Arzt-Patienten-Verhältnisses ein Nebeneinander von Hersteller, Programmierer, Regulierungsbehörde, medizinischem Anwender und Patient. Klar ist, dass die künstliche Intelligenz selbst nicht für Fehler zur Verantwortung gezogen werden kann. Zunächst müsse der Hersteller für eine sichere und verantwortungsvolle Nutzung des Systems sorgen, betonte Groß. Er sieht aber auch die Patienten in der Pflicht. Sie sollten zumindest in Grundzügen den Mechanismus der KI beim Einsatz von Entscheidungsunterstützungssystemen nachvollziehen können; denn nur so könne es den Informed Consent zu einer Maßnahme geben. Aber: „Die moralische und rechtliche Letztverantwortung bei komplexen KI-gestützten Anwendungen liegt trotz Verantwortungsdiffusion bei der behandelnden Fachperson.“ Ärzte sollten laut Groß in der Lage sein, den der KIAnwendung zugrundeliegenden Algorithmus grundsätzlich zu verstehen. Und als Letztverantwortliche sollten sie eine Risikoeinschätzung bei Nutzung eines KI-Systems vornehmen können. Zentral für den Behandlungserfolg bleibt aber weiterhin die Arzt-PatientenBeziehung. „Patienten können in KI-Anwendungen kein Vertrauen entwickeln, das dem Vertrauen in ihren Behandler vergleichbar ist“, führte Groß aus. Für eine vertrauensbasierte Beziehung sei die Rolle des Arztes weiterhin essenziell. Deshalb dürfe es auch nicht das Ziel des Einsatzes von KI in der Medizin sein, medizinisches Fachpersonal zu ersetzen, sondern es gehe darum, den Behandlungsprozess zu unterstützen. KI-freies Backup sicherstellen Mit einer gewissen Skepsis beurteilte Professor Dr. Wolfram Henn, Leiter der Genetischen Beratungsstelle der Universität des Saarlandes, das Vermögen von Ärzten, KI-generierte medizinische Ergebnisse nachvollziehen oder erklären zu können. Anders als bei der konventionellen medizinischen Diagnostik stehe der Arzt hier vor einer Art „Black Box“, die mit Daten gefüttert werde und auf dieser Grundlage „ein Ergebnis ausspucke“. Studien zum Einsatz von KI in der Dermatologie oder Histopathologie zeigten, dass die selbstlernenden Algorithmen zu besseren Ergebnissen kommen als konventionelle Verfahren. Aber: „Die Nutzer (Ärzte) wissen nicht, wie ein Ergebnis zustande gekommen ist, die Adressaten (Patienten) wissen nicht, von wem ihr Ergebnis stammt, die Entwickler wissen nicht, ob das Einzelergebnis stimmt.“ Dem Problem des „Übervertrauens“ in systemgenerierte Ergebnisse und der Gefahr des Übersehens atypischer Fallkonstellationen kann nach Einschätzung von Henn nur begegnet werden durch menschliche Plausibilitätskontrollen als Standard Operating Procedure, durch die haftungsrechtliche Letztverantwortung des KI in der Medizin – Ärztliche Letztverantwortung bleibt bestehen

RkJQdWJsaXNoZXIy MjMxMzg=