18 Rheinisches Ärzteblatt / Heft 12 / 2023 und Maschine in Zukunft besser sein werden und übrigens auch schneller.“ Bei den neuen Systemen der generativen KI sieht Lauterbach „eine Explosion von Möglichkeiten“; generative KI habe das Vermögen, über die Zusammenfassung von Sachverhalten hinaus zu neuen Ableitungen zu kommen. „Große Sprachmodelle haben ganz klar Zeichen von richtiger Intelligenz“, erklärte der Minister. Mit dem Gesundheitsdatennutzungsgesetz werde nun hierzulande bis 2025 eine Struktur geschaffen, in der KI – unter Berücksichtigung des Datenschutzes – auf einen aus verschiedenen Quellen gespeisten Datenpool zugreifen könne, darunter geschätzt 70 Millionen elektronische Patientenakten. KI erkennt komplexe Strukturen Ganz anders blickt dagegen Professor Dr. phil. Julian Nida-Rümelin auf die Eigenschaften Künstlicher Intelligenz. „Bei den aktuellen Sprachproduktionssystemen kann man nicht von genuiner Intelligenz sprechen, auf keinen Fall“, betonte der ehemalige Kulturstaatsminister und Inhaber des Lehrstuhls für Philosophie und politische Theorie an der LMU München auf der BÄKVeranstaltung. Bereits in den 1950er Jahren habe es Szenarien einer Steuerung durch die damals erstmals eingesetzten Großrechner gegeben. Jeder Taschenrechner übertreffe die menschliche Intelligenz bei Weitem, trotzdem bezeichne man dies aber nicht als künstliche Intelligenz. Das Leistungsvermögen der generativen Sprachsysteme sei zwar beeindruckend, gleichwohl arbeiteten diese auf der Grundlage von Milliarden von Texten und Datensätzen, mit denen sie gefüttert worden seien. Sollten sich alle tatsächlich in Zukunft dieser generativen Sprachsysteme bedienen, „dann würden wir uns auf ewig im Kreis drehen“. Nida-Rümelin zufolge bietet die generative KI hilfreiche Tools auch in der Medizin, eignet sich aber nicht als intelligentes Gegenüber. Zentral in der medizinischen Versorgung sei für ihn das Vertrauensverhältnis zwischen behandelnder Person und behandelter Person. In diesem unverzichtbaren interpersonalen Vertrauensverhältnis werde sich bezüglich KI stets aufs Neue erweisen müssen, wo sich die Diagnosen oder Entscheidungen über Behandlungsoptionen verbessern. Nida-Rümelin empfiehlt ein instrumentelles Verhältnis zu Künstlicher Intelligenz und eine große Offenheit gegenüber dem, was alles möglich ist. „Ich bin aber sehr pessimistisch, was die ideologische Begleitung dieses Prozesses angeht mit der Tendenz, menschliche Verantwortung zu diffundieren – das heißt, am Ende wissen wir nicht mehr, wer an welcher Stelle welche Verantwortung trägt – und die Softwaresysteme zu personalisieren, als wären sie im Stande, die Verantwortung zu übernehmen. Das können sie nicht, weil sie keine Personen sind“, erklärte der Philosoph. Wie anspruchsvoll es sein dürfte, diese notwendige Transparenz tatsächlich herzustellen, zeigt sich am Beispiel der Intensivmedizin. Pro Stunde und pro Patient gebe es hier – ohne Bilddaten – rund 1.000 Datenpunkte, Spezial Bei der Bewertung des Potenzials von KI in der Medizin gibt es allerdings deutliche Unterschiede. Wenig überraschend ist die Vision, die KI für sich selbst in der Medizin entwickelt. ChatGPT beispielsweise hat zusammenfassend Folgendes zu „KI in der Medizin“ zu sagen: Die Rolle von KI in der Medizin wird immer wichtiger, da sie die Diagnosegenauigkeit, die Medikamentenentwicklung und die Patientenversorgung revolutioniert. Trotz der Herausforderungen und ethischen Fragen bietet KI das Potenzial, die Gesundheitsversorgung weltweit zu verbessern und Leben zu retten. Lauterbach: Explosion von Möglichkeiten Zu einer ähnlich positiven Einschätzung kommt Bundesgesundheitsminister Professor Dr. Karl Lauterbach. An dem Thema KI in der Medizin sei er persönlich brennend interessiert, betonte er vor Kurzem bei der Veranstaltung der Bundesärztekammer (BÄK) „Von ärztlicher Kunst mit künstlicher Intelligenz“. KI werde zum Beispiel künftig Wirkungsweisen von Proteinen im menschlichen Körper erkennen lassen; so ließen sich aus der Proteinstruktur genetische Informationen ableiten, die für die Entwicklung von Arzneimitteln oder Vakzinen genutzt werden könnten, so der Minister: „Deep Learning ist eine Methode der KI, mit der Mensch Die Zentrale Ethikkommission bei der Bundesärztekammer weist in ihrer Stellungnahme zur „Entscheidungsunterstützung ärztlicher Tätigkeit durch Künstliche Intelligenz“ auf autonomiebezogene Risiken beim Einsatz von KI hin: Zu den konkreten Risiken, die mit der Mensch-Maschine-Interaktion beim klinischen Einsatz von „Clinical Decision Support Systems“ verbunden sind, zählen insbesondere die Übernahme von Diagnosevorschlägen durch Ärzte ohne weitere eigene Prüfung („automation bias“, „automation-induced complacency“); abnehmende oder inadäquate Reaktionen auf Warnsignale des Systems („alert fatigue”); sich selbst erfüllende Vorhersagen: Wenn ein System, das auf Ergebnisdaten zum Beispiel von Krebspatienten trainiert ist, eine schlechte Prognose vorhersagt, wird palliativ statt kurativ behandelt und damit die Empfehlung der CDSS verstärkt; die Gefahr einer Überdiagnostik und -behandlung, etwa wenn durch KI mögliche Anzeichen für eine Erkrankung aufgespürt werden, deren Manifestation aber statistisch gesehen sehr unwahrscheinlich und/oder sehr unplausibel ist, von Ärzten aber eine entsprechende invasive Diagnostik oder Therapie vorsichtshalber, etwa auch zur eigenen Absicherung, veranlasst wird. Insgesamt birgt das Überschreiten der Grenze zwischen Entscheidungsassistenz und Entscheidungsübernahme die Gefahr der Unachtsamkeit oder sogar des Kontrollverlusts. Ärzte müssen weiterhin in der Lage sein, die Aufsicht über den Gesamtprozess von Diagnostik, Therapie, Prognostik und Prädiktion zu übernehmen, in den zunehmend auch Vorschläge von maschinenlernenden Systemen eingebunden sind. Diese Aufgabe ist nicht delegierbar. Autonomiebezogene Risiken
RkJQdWJsaXNoZXIy MjMxMzg=