Künstliche Intelligenz und Verantwortung im Gesundheitswesen

#ResponsibleAI

Jan Thomas Otte

Ob das Fitness-Armband oder die App-gesteuerte Vernetzung von Ärzten, Apothekern und Patienten: Hinter diesen Helfern steckt vermehrt Künstliche Intelligenz (KI). Neue Methoden in der Diagnostik werden KI-assistiert entwickelt, Entscheidungsgrundlagen für eine Therapie maschinell vorbereitet. Entscheiden wird der Mensch weiterhin – und er trägt die Verantwortung…

Der Sommerurlaub ist vorbei und viele haben ihn entweder mit Google Maps verbracht, einer anderen App oder doch der guten alten Landkarte. Ob ein sich andeutender Stau auf der Autobahn bei der Routenfindung oder das wachsende Karzinom bei der Krebsvorsorge: Eine einfache Entfernungsrechnung kann der Mensch vornehmen, auch eigene Erfahrungen mit einbringen. Aber die schiere Menge an Daten von zehntausenden Nutzern in der gleichen Situation direkt auszuwerten, das überfordert uns in dieser Komplexität und Geschwindigkeit. Entscheiden müssen wir trotzdem.

Markus Bönig ist fest der Meinung, dass KI-Systeme schon bald ihren Durchbruch erleben werden, in einem schleichendenden Prozess, flächendeckend. Gerade im Gesundheitswesen bedürfe KI aber einer genauen Risikoabschätzung. Das Nichtergreifen der Chance bestimmter Techniken wäre allerdings das größte Risiko, so Bönig. Vor acht Jahren hat der 44jährige Diplom-Kaufmann beim IT-Riesen Cisco dafür seine Festanstellung gekündigt. Mit seinen KI-Startups will er noch mehr „Impact“ generieren. Der Geschäftsführer von vitabook und Qonsilus, einem KI-Anbieter im Gesundheitsbereich, beschäftigt heute 25 Mitarbeiter.

Kraftverstärker menschlicher Fähigkeiten

Künstliche Intelligenz versteht Bönig als Kraftverstärker eines Teils menschlicher Fähigkeiten. Am Ende trage, ähnlich wie beim selbstfahrenden Auto, immer noch der Mensch die Verantwortung darüber, wieweit die KI-Assistenten teil- oder voll-autonom eingesetzt werden. „Sie selbst entscheiden darüber, ob Sie nur den Abstandsassistenten nutzen oder komplett die Hände hinterm Lenkrad verschränken“. Bönig sieht in KI entscheidende Verbesserungen, besonders im Umgang mit Fehldiagnosen und Therapieentscheidungen. „Der Mensch ist in seinen Entscheidungen fehlbar, kann komplexe Fakten nur bedingt überblicken und berücksichtigen und kennt aktuelles medizinisches Wissen häufig gar nicht und neigt natürlich auch zur Selbstüberschätzung“.

Mitlernende Qualitätskontrolle

Ärzte durchlaufen ein langes Studium, die mehrjährige Ausbildung zum Facharzt mit diversen Zusatzqualifikation. Danach komme in der Niederlassung aber viele Jahre keine weitere Qualitätskontrolle. Gerade bei der Anamnese, konkreten Fragestellungen und Differenzialdiagnosen sieht Bönig Handlungsbedarf. Menschliche Erkenntnisse basieren auf Fakten, so Bönig. Und die stammen aus unterschiedlichen Quellen. „Die Datenbasis eines Arztes, die auf dem einzigen Input eines Quartalsbesuchs basiert, ist demgegenüber meist zu dünn“.

Bönigs Gesundheits-App Patient.Plus liefert dafür neben den Daten des Arztes eine Grundlage. Die App ist mit dem „vitabook“, einer digitalen Krankenakte, verknüpft und erleichtert die Dokumentation der eigenen gesundheitlichen Entwicklung sowie das Speichern und Teilen ärztlicher Diagnosen und Behandlungsverläufe.

Serverfarmen „made in Germany“

Bönigs Algorithmen werten laufend riesige Datenmengen aus, einer ausgelagerte, riesige Serverfarm macht das möglich. Hinter der eingesetzten „Microsoft Cloud“ stehen zwei Rechenzentren der Deutschen Telekom, die in Deutschland stehen und Microsoft-Technologie einsetzen. Die Server-Infrastruktur, Speicherplatz und Rechenleistung werden stetig erweitert, den wachsenden Bedürfnissen angepasst, Big Data auszuwerten. „Wir kaufen die Technologie, schicken aber keine Daten zur Auswertung“, versichert Bönig.

Olaf Göing, Chefarzt des Sana Klinikums Lichtenberg, arbeitet mit Markus Bönig in einem KI-Pilotprojekt und freut sich über den neuen direkten „Rückkanal“ zwischen Arzt und Patient.   Bönig und sein Team wollen mithilfe künstlicher Intelligenz die Ärzte des Klinikums in ihrer Fähigkeit unterstützen, Patienten im Rahmen einer Therapie die richtigen Fragen zu stellen, die der Patient durch Beobachtungen und eigene Messungen fortlaufend beantwortet und das mit der App Patient.Plus dokumentiert. Bönig: „Nur so könnten Ärzte alle Antworten bekommen, die, ergänzt um die Einschätzungen des Arztes, für eine individuelle Therapie nötig sind.“

Im Behandlungszimmer geht es im Bereich der intelligenten, mitlernenden und – denkenden Maschinen um die Analyse von Blutproben, Röntgen- oder Ultraschallbildern. KI hilft dabei, die gesammelten Laborwerte zentralisiert auszuwerten. Das hilft der Mustererkennung des Arztes, der so viele Fälle in seinem Berufsleben am Stück niemals sehen würde.

Algorithmen als Entscheidungsvorleger

Armin Grunwald, Leiter des Büros für Technikfolgen-Abschätzung beim Deutschen Bundestag, hat kürzlich ein KI-kritisches Buch geschrieben: “Der unterlegene Mensch”. Wie geht der Arzt vor im Konfliktfall, wenn Algorithmen im System etwas anderes darstellen als das, was der Mediziner als persönlichen Eindruck vom Patienten gewonnen hat? Die Verantwortung, eine Entscheidung zu treffen, bleibe weiterhin beim Arzt und nicht beim Algorithmus, findet auch Grundwald. Zumindest im deutschen Sprachraum.

In den USA bestimmen die großen Tech-Giganten nicht nur die Wirtschaft, sondern auch weite Teile der Politik. In China hat der Staat selbst ein offenkundiges Interesse an gesteigerter Sozialkontrolle und baut ganze Großstädte mittlerweile als „Smart Cities“ um ihre Bewohner besser zu steuern. Im deutschen Sprachraum, nach den USA und China immerhin eine der mächtigsten Volkswirtschaften, stoßen solche autonomen Entwicklungen rundum KI immer noch auf große Vorbehalte. Während die einen den Himmel auf Erden anpreisen und Transhumanisten gar von der Unsterblichkeit träumen, befürchten andere eine Hölle, die nicht rückgängig gemacht werden könne.

Wertvolle Chancen, kein Allheilmittel

„KI macht uns nicht unsterblich, aber gesünder“, resümierte Informatik-Professor Joachim Hornegger, Präsident der Universität Erlangen auf dem letzten Digitalgipfel in Nürnberg zum Thema KI. Das nächste vom Bundeswirtschaftsministerium organisierte Lobbytreffen findet vom 28. bis 29. Oktober 2019 in Dortmund statt.

Bernd Montag, CEO von Siemens Healthineers, sieht diesen Wandel und die damit einhergehenden Herausforderungen moderner Medizin ganz ähnlich. Es gehe darum, dass der Arzt seiner Verantwortung gerecht werde. Die Siemens-Entwickler wollen „Medizin menschlicher” machen. In der Präzisionsmedizin sei das, so Montag, „die richtige Behandlung für den richtigen Patienten zur richtigen Zeit“. Mit der Sammlung und Auswertung von großen Datensätzen in Echtzeit will dies der führende deutsche Technologie-Konzern disruptiv ermöglichen. Und Siemens-Geräte stehen dafür als Datenlieferanten in praktisch jedem Klinikum zur Verfügung.

Technikfolgenabschätzung hält Stefan Heinemann, Professor an der FOM Hochschule und in der Universitätsmedizin Essen tätig, für sinnvoll. Gleichzeitig sorge eine Engführung von künstlicher Intelligenz als „Teufelswerkzeug“ dafür, dass auch wertvolle Therapiechancen eingeengt würden. Künstliche Intelligenz ist für den Digitalethiker Heinemann ebenso wie den KI-Unternehmer Bönig oder Siemens-Healthineers-CEO ein super Tool, ein Werkzeug – kein Allheilmittel. Überall dort, wo es vertretbar ist aus Sicht von Ärzten, Pflegepersonal und anderen Akteuren im Gesundheitsbereich. „KI ist ein Instrument, um sinnvoll menschliche Fähigkeiten zu ergänzen, zu unterstützen.“

Menschliche Fähigkeiten, maschinell unterstützt

Heinemann bemerkt aber auch: „Nicht alles, was wir technisch können, sollten wir auch tun“. Am Ende sei es ein Abwägungsprozess verschiedener Werte, welcher Wert im Einzelfall höher anzusiedeln sei – in der Therapie ebenso wie in der Prävention. Heinemann fordert aktive Aufklärung und mehr Bildung im KI-Bereich, auch außerhalb vom Gesundheitsbereich. „Sich aktiv damit auseinanderzusetzen, dass sehe ich ganz im Sinne der ärztlichen Ethik.“

Einen digitalen Eid für Ärzteschaft und Pflegekräfte im Bereich KI sieht Heinemann kritisch. „Da fehlen uns Erfahrungswerte und Systeme, dass so ein Eid überhaupt wirken kann“. Die Fakten-Basis sei noch gar nicht so klar, außer dass an hohe intrinsische Ideale appelliert werde. „Statt auf Eide sollten wir mehr auf Aufklärung setzen, auf eine gute, moderne medizinische Ausbildung“.


„Aktive Aufklärung, erklärbare Prozesse“ 

Interview mit Professor Stefan Heinemann, FOM Hochschule/ Universitätsmedizin Essen

KI befeuert Hoffnungen von Krankenkassen, massiv ihre Ausgaben zu senken. Sehen Sie da einen Mittelweg, ökonomisch zu verantworten, ethisch vertretbar?

Was nicht sein darf, dass aus einem 7 Minuten Gespräch zwischen Arzt und Patient später 5 Minuten und irgendwann nur noch 3 Minuten per KI werden. Das wäre kein Einsatz digitaler Technologien, die auf den Patienten ausgerichtet sein sollen, wo Nähe und Nahbarkeit, Empathie und Einfühlungsvermögen wichtige Faktoren sind.

Gleichzeitig ist es legitim, ökonomisch effizienter vorzugehen, gerade im chronisch schwierig finanzierten Gesundheitssystem. Wo sehen Sie dazu Möglichkeiten? 

Etwa bei modernen, standardisierten Symptomchecks, wo künftig vermehrt Maschinen zwischen Frage und Antwort vermitteln. Da appelliere ich an den behandelnden Arzt, die zur Verfügung stehende, neu gewonnene Zeit nicht rein zur Kapitalertragsteigerung zu nutzen, sondern zum Wohle des Patienten. Es darf nicht sein, dass am Ende die KI gestützten Systeme sogar noch mit Recht als empathischer wahrgenommen werden als manche kühlen Ärzte.

Gesundheits-Armbänder und Apps speichern riesige Datenmengen im Hintergrund. Wie schätzen Sie das Risiko rundum den Datenschutz, die Privatsphäre ein?

Zwischen Sein und Sollen stehend ist der Mensch stets verführt, nützliche Werkzeuge mehr oder weniger reflektiert zu nutzen. Und zwar auch dann, wenn dieser Nutzen bei näherer Betrachtung gar kein Nutzen mehr ist. Convenience hat den Datenschutz schon immer geschlagen. Welcher Nutzer liest sich schon alle AGB der sozialen Medien durch. Datenschutz darf kein Luxus für Gesunde sein, Risiken im Umgang mit Gesundheitsdaten müssen transparent werden.

Patienten werden durch KI künftig autonomer, eine Art „Doktor Google“. Wie werden sie am besten auf diese neue Rolle vorbereitet?

Das Risikoempfinden der Patienten wird durch aktive Aufklärung gestärkt. Bereits in den Schulen sollten Schüler darin geschult werden, verantwortungsvoll mit digitaler Technik umzugehen. Mir ist wichtig, dass Patienten im Zusammenspiel von Arztpraxen, Kliniken, Apotheken und diversen Gesundheits-Apps die Zusammenhänge verstehen. Mir ist bewusst, dass das ein einigermaßen frommer Wunsch ist…

Am Ende aller Abwägung geht es um eine Entscheidung, für oder gegen eine Therapie. Wie legitim ist so ein KI-basiertes Outsourcing von Verantwortung?

Hier wünsche ich mir ein Update in der Mediziner-Ausbildung. Dazu müssen Ärzte und Pflegepersonal ausgebildet werden, befähigt werden, das Supertool KI als solches und in seinen Anwendungsdimensionen zu beherrschen. Die bloße Affinität im Umgang mit moderner Technik reicht hier als Basis ebenso wenig wie ein einzelner, losgelöster App-Workshop. Hier ist noch viel zu tun. 


„Maßgeblicher Effizienztreiber, Arzt als Entscheider“ 

Interview mit Markus Bönig, geschäftsführender Gesellschafter „vitabook“

KI, Gottes Werk – und Teufels Beitrag?

Weder noch. KI ist schlicht und ergreifend ein Tool, ein Werkzeug, eine Maschine. Die Vorstellung, dass Maschinen wie Menschen werden könnten, gehört in den Bereich der Märchen und Mythen. Nur Menschen haben echte Gefühle, ein Selbstbewusstsein und können sich frei entscheiden. KI als Tool in den Händen von Ärzten ist eine wunderbare Qualitätsverbesserung, sie ersetzt Ärzte aber nicht.

Ärzte gewinnen durch die KI-Assistenten mehr Zeit für das Patientengespräch – und sich selbst…

Wirtschaftlichkeitsreserven sind die zentrale Triebkraft für technischen Fortschritt. Am Ende geht es tatsächlich immer darum, mit weniger Mitteleinsatz mehr zu bewirken. Daran wird auch KI nichts ändern, ganz im Gegenteil. KI ist ein maßgeblicher Effizienztreiber.

Verwässern KI-Engines nicht das Recht des Patienten auf Privatsphäre und Selbstbestimmtheit im Umgang mit Diagnosen?

So lange KI der Unterstützung des Arztes dient, ist es alleine im Ermessen des Arztes, solche Erkenntnisse mit dem Patienten zu teilen. Das Recht des Patienten auf Nichtwissen bleibt gewahrt. Für ein KI-System ist es übrigens bedeutungslos, wer der konkrete Patient ist. Ein KI-System erhält strukturierten Input – gerne auch in völlig anonymer Form. Ich sehe hier keine Privatsphäre gefährdet.

Wie legitim ist eine im Hintergrund mehr oder weniger autonom herbeigeführte Entscheidung einer Gesundheits-App, des behandelnden Arztes – oder Hackers…

Am Ende ist der Arzt der Entscheider. Es gibt hier keinen Automatismus. Vergleichen wir es mit einem Langzeit-EKG. Dies wird automatisch ausgewertet. Der Arzt sieht nicht alle 24 Stunden manuell durch. Das System zeigt ihm auffällige Stellen, bildet Mittelwerte. Hier wird KI ganz selbstverständlich seit vielen Jahren genutzt. Welche Entscheidung er auf Grundlage dieser Fakten trifft, entscheidet wieder alleine der Arzt.

KI-Kritiker appellieren an moralische Grundsätze. Wie sehe so ein digitaler Eid aus, Hippokrates 2.0?

Ich sehe hier kein Erfordernis für Änderungen. Der Rahmen, wie er heute bereits für Ärzte existiert, deckt auch KI mit ab. KI ist immer nur Entscheidungsunterstützung des Arztes. Er bleibt auch mit KI weiterhin aufgefordert, seine besonderen Fähigkeiten und Kenntnisse zu nutzen und vor allen Dingen Entscheidungen zu treffen.


Autor

Jan Thomas Otte ist Diplom-Theologe, promoviert zum Thema “Künstliche Intelligenz und Verantwortung” (#ResponsibleAI) an der Universität Luzern am Institut für Sozialethik und ist mit einer Ärztin verheiratet…

Lizenz

Digitales verantworten Copyright © 2020 Jan Thomas Otte. Alle Rechte vorbehalten.

Dieses Buch teilen