Rheinisches Ärzteblatt / Heft 12 / 2023 19 schen Problemen im Zusammenhang mit KI in der Medizin unter anderem Folgendes zu bedenken: Wenn Ärzte zu stark auf KI-Systeme vertrauen, könnten sie ihre eigenen Fähigkeiten und ihr klinisches Urteilsvermögen vernachlässigen. Die Balance zwischen menschlichem Fachwissen und maschinellem Lernen ist entscheidend. Ärztliche Letztverantwortung Diese Einschätzung teilt ChatGPT mit Professorin Dr. Dr. phil. Eva Winkler, der Vorsitzenden der Zentralen Ethikkommission bei der Bundesärztekammer. Bei der BÄK-Veranstaltung verwies sie auf Forschungsergebnisse, die das Potenzial für eine bessere Qualität in der Medizin im Zusammenwirken von Arzt – und hier insbesondere dem erfahrenen Facharzt – und Maschine zeigten. Es habe aber auch nachgewiesen werden können, dass bei Entscheidungsunterstützung durch fehlerhafte KI selbst erfahrene Ärzte vulnerabel seien für fasche Informationen, unerfahrene Ärzte umso mehr. Validierung und Qualitätssicherung im Umgang mit KI seien deshalb äußerst wichtig. Ganz zentral für Winkler: Die ärztliche Letztverantwortung dürfe nicht abgegeben werden. Aus diesem Grund müssten Ärztinnen und Ärzte im Umgang mit KI geschult werden, auch um einem Automatisierungs-Bias oder einer „alert fatigue“ entgegenzuwirken. Winkler sieht in KI keinen Ersatz, sondern Unterstützung der ärztlichen Entscheidung. „Es kann keine automatisierte Behandlungsentscheidung geben“, betonte sie. Auch müsse sichergestellt werden, dass das ärztliche Erfahrungswissen durch den Einsatz von KI nicht verloren geht. Auch wenn die mit dem Einsatz von KI in der Medizin verbundenen ethischen Probleme stets beachtet werden sollten, blickt BÄK-Präsident Dr. Klaus Reinhardt mit Zuversicht auf deren weiteren Einsatz: „Ärztliche Kunst und künstliche Intelligenz sind für uns keine Gegensätze.“ Er sieht für die Zukunft eine Vielzahl von Anwendungsmöglichkeiten der KI in Diagnostik und Therapie, aber auch bei Routineaufgaben, wie etwa der Dokumentation. „Und damit bleibt im Idealfall Ärztinnen und Ärzten mehr Zeit für den direkten Patientenkontakt.“ auf die KI zugreifen könne, um Krankheiten oder Ereignisse vorherzusagen oder um komplexe Zusammenhänge aufzubereiten, erläuterte Professor Dr. Gernot Marx von der Aachener Universitätsklinik für Operative Intensivmedizin und Intermediate Care Mitte Oktober bei einer Fortbildungsveranstaltung der Ärztlichen Akademie für medizinische Fort- und Weiterbildung in Nordrhein. Für den einzelnen Arzt werde es zunehmend unmöglich, das vorliegende evidenzbasierte Wissen in Verbindung mit den jeweils vorliegenden Daten in die Versorgung der Patienten einzubringen. Daher sei beispielsweise an seiner Klinik ein KI-Algorithmus entwickelt worden, der in der Zusammenschau der Daten das Risiko von Intensivpatienten vorhersagt, einen septischen Schock zu erleiden. Betroffene könnten dann früher antibiotisch therapiert oder stabilisiert werden. Im Ergebnis führe dies zu einer deutlich verringerten Sterberate. „Hier haben wir ein Riesenpotenzial, viele Menschen zurück ins Leben zu bringen.“ Auch beim frühzeitigen Erkennen von ARDS könne KI sinnvoll zum Einsatz kommen, sagte Marx bei der Veranstaltung in Bonn; dies zeige ein aktuelles Forschungsprojekt unter Einschluss von fast 15.000 Patientinnen und Patienten. „Es ist gelungen, das akute Lungenversagen rund 48 Stunden früher vorherzusagen.“ Dies gebe den behandelnden Ärzten eine Möglichkeit zum rechtzeitigen präventiven Eingreifen. Marx berichtete außerdem von einem internationalen Forschungsprojekt mit dem Ziel, die invasive Beatmung von Patienten zu verbessern; dabei finde ein KI-Entscheidungshilfesystem Verwendung, das auf der Grundlage der vorliegenden Daten kontinuierlich Empfehlungen zur Einstellung der Beatmung geben soll. Vorstellbar sei, dass künftig KI-Interventionen in der Weise implementiert werden, dass den Ärzten aus dem System heraus Vorschläge zur Therapieänderung unterbreitet werden. „Die Maschine würde das nicht selber machen, aber sie würde uns das vorschlagen“, führte Marx aus. Aber ist tatsächlich vorstellbar, dass Ärzten, die etwa der Sepsis-Prädiktion durch das KI-System vertrauen und entsprechend handeln, auch zukünftig noch eine Bewertung der zugrundeliegenden Algorithmen möglich sein wird? ChatGBT gibt auf die Frage nach ethiSpezial © samui – shutterstock.com Kollegiale Hilfe in Notsituationen Jede Spende hilft! Hilfe für Ärztinnen und Ärzte Wir helfen: • Kindern in Not geratener Ärztinnen und Ärzte • Halbwaisen und Waisen aus Arztfamilien • Ärztinnen und Ärzten in besonderen Lebenslagen Spendenkonto der Stiftung: Deutsche Apotheker und Ärztebank eG Düsseldorf IBAN DE88 3006 0601 0001 4869 42 BIC DAAEDEDDXXX Weitere Informationen zur Unterstützung unter www.hartmannbund.de
RkJQdWJsaXNoZXIy MjMxMzg=