03. März 2020
4 Min.

Responsible AI in der Gesundheitsbranche

"Machine Learning" und "Big Data" sind in der Gesundheitsbranche längst keine unbekannten Begriffe mehr. Künstliche Intelligenz wird immer bedeutender in der Medizin für die Prävention und Versorgung von Patienten. Sie kann dabei helfen, Krankheiten zu diagnostizieren und die richtige Behandlung vorzuschlagen – doch was passiert, wenn sie im Prozess Fehler macht? Wer übernimmt im schlimmsten Fall die Verantwortung? Antworten darauf soll "Responsible AI" geben.

Wir haben bereits in den Blogposts zu Nudging und Frauengesundheit über die vielfältigen Chancen geredet, die uns Künstliche Intelligenz – gerade in der Gesundheitsbranche – bietet. In diesem Blogpost starten wir den Versuch, unsere bisherigen Gedanken mit der Frage nach der Verantwortung abzurunden und gehen näher auf den Begriff „Responsible AI“ ein.

Künstliche Intelligenz in der Medizin: 

Dazu müssen wir uns zunächst näher mit der Funktionsweise einer Künstlichen Intelligenz befassen. Um richtig zu funktionieren, benötigt eine KI zuerst einmal eine große Menge an Daten. Im Gesundheitswesen verwendet sie Algorithmen und eine bestimmte Software, mithilfe sie komplexe medizinische Daten analysiert, um die Beziehungen zwischen Patientenergebnissen und Prävention-/Behandlungstechniken zu eruieren. Das maschinelle Lernen (ML) ist eine Teilmenge der KI und verwendet verschiedene statistische Methoden und Algorithmen. Somit ermöglicht es einer Maschine, sich mit der Erfahrung zu verbessern. Deep Learning (DL) ist wiederum eine Teilmenge von ML und bringt das maschinelle Lernen mit einer mehrschichtigen neuronalen Netzwerkarchitektur auf die nächste Ebene, um ein Muster zu identifizieren oder erledigt andere komplexe Aufgaben – ähnlich dem menschlichen Gehirn. Eingesetzt wird die Technologie gerne als Unterstützung in bildgebenden Verfahren, z.B. bei der Auswertung von Röntgenbildern, bei der Entscheidungsfindung durch Natural Language Processing (NLP) und der Selbstüberwachung von Patienten in Form von Wearables und Fitness-Trackern. Tiefe neuronale Netze (DNNs) und rekurrierende neuronale Netze (RNNs), Beispiele für Architekturen des tiefen Lernens, werden vor allem bei der Verbesserung der Entdeckung von Medikamenten und der Diagnose von Krankheiten eingesetzt.

Weitere Anwendungsbereiche:

Grundlegend für diesen Prozess ist, dass Datenbestände überhaupt aufgebaut werden – hier müssen bereits Fragestellungen im Bereich des Datenschutzes geklärt werden. Daten finden sich in der Medizin nämlich vor allem in Patientenakten, Lagerdaten und Diagnoseberichten, aber auch in Studien- und Forschungsergebnissen. Aus diesen Datenströmen bedient sich die Künstliche Intelligenz und kann dazu beitragen, Krankheiten früher zu erkennen und Menschen dahingehend besser zu versorgen. Dem Patienten ermöglicht das eine individuell besser angepasste Behandlung. Dennoch stehen Fachleute wie Datenwissenschaftler, KI-Entwickler und Dateningenieure oft vor Herausforderungen der fehlenden Datenverfügbarkeit für die Schulung und dem Validieren von KI-Modellen.

Die Verwendung von KI-Modellen findet in der Praxis in verschiedenen Disziplinen Anwendung und verändert den Klinikalltag maßgeblich. Sie kann Ärzten dabei helfen, übersehene Fehler zu identifizieren. Besonders bewährt hat sie sich in Bereichen wie der Früherkennung von Krebs, Demenz- und/oder Herzerkrankungen, aber auch bei:

  • Hilfe bei der Behandlung von PTBS
  • KI-Chatbots
  • Intelligente Roboter, die Laborberichte erklären
  • Altersbedingte KI-Zentren
  • Verbesserung der klinischen Dokumentation
  • Personalisierte Medizin

Künstliche Intelligenz ist in der Medizin also nicht mehr wegzudenken und wird auch in Zukunft weiterhin eine immer wichtigere Rolle spielen. Sie erweitert die Möglichkeiten der Ärzte erheblich. Gemäß Frost & Sullivan (2019) wird der KI-Markt im Gesundheitswesen bis 2021 um 40 Prozent steigen. KI hat somit das Potenzial, die Behandlungskosten deutlich zu senken. Der Diskurs wird sich also weniger um ein Abwägen von „KI in der Medizin – Ja oder nein“ drehen. Vielmehr gilt es nun, die Frage nach der Verantwortung zu klären. Das Stichwort dafür: Responsible oder Explainable AI .

Responsible AI – Wer übernimmt die Verantwortung?

Neben all den genannten Chancen wirft der Einsatz von KI in der Medizin natürlich auch rechtliche, gesellschaftliche und ethische Fragen auf. Die Herausforderungen bestehen darin, wie Verantwortung, Transparenz, Privatsphäre und Sicherheit am besten in diese Systeme eingebaut werden können. Weitere Befürchtungen umfassen die Verdrängung von Arbeitskräften, mögliche Verzerrungen bei der Entscheidungsfindung und einen Mangel an Kontrolle über die automatisierten Systeme, da der allgemeine Wissensmangel in einigen Bereichen oftmals noch zu groß ist. Diese Fragen sind allerdings bei weitem noch nicht gelöst, sondern aktiver Bestand der Forschung und Entwicklung.

Der Einsatz von Künstlicher Intelligenz soll nicht dazu führen, Stellen im Gesundheitswesen zu ersetzen, sondern vermehrt die Stellenprofile zu verändern und zum Positiven ergänzen. Routineabläufe können somit zukünftig an die Maschinen delegiert werden, damit das Personal verstärkt den Menschen-zugeschriebenen Fähigkeiten wie emotionaler Intelligenz nachgehen können. Dies verlangt von Ärzten und dem Gesundheitspersonal im Gegenzug ein hohes Maß an Vertrauen in die autonome Technologie.

„With great power comes great responsibility“ (Uncle Ben zu Peter Parker).

Doch was passiert, wenn etwas schief geht? Wer übernimmt diese schwerwiegende Verantwortung einer Fehldiagnose, die ein Patient von seinem Arzt auf Basis großer Datenmengen bekommen hat? In der Praxis besteht oft noch die Schwierigkeit, KIs sinnvoll in den Alltag zu integrieren. Dahinter birgt sich unter anderem das Risiko, dass sich „human biases“ in die Künstliche Intelligenz mit eingeschlichen haben. Einige dieser Vorurteile sind unbeabsichtigt und entstehen aufgrund des Mangels an unterschiedlichen Perspektiven bei der Entwicklung und Ausbildung des Systems.

In anderen Beispielen kann die Entscheidungsfindung verzerrt werden, indem man sich auf unvollständige Daten verlässt, wenn andere relevante Faktoren ausgelassen werden. Schließlich werden auch historische Daten für das Training eines Systems verwendet, welches mit modernen Einstellungen inkompatibel sein kann. In unserem Blogpost über Frauengesundheit haben wir bereits über die Gendermedizin geredet und was es bedeutet, aufgrund veralteter Rollenbilder heute noch teilweise rückständige Behandlungsmethoden vorzuschlagen.

Die komplexen Fragen der Responsible AI sind – wie wir sehen – noch nicht vollständig geklärt. Unentwegt neue Möglichkeiten auszutarieren und deren mögliche Risiken im Blick zu haben, sollte in der Entwicklung eine zentrale Rolle spielen. Dafür wird in der Praxis versucht, sich an sogenannten „Frameworks“ zu orientieren, die ethische Richtlinien vorschlagen, anhand derer Responsible AI konstruiert werden soll. Künstliche Intelligenz benötigt allerdings auch genügend Freiräume für Innovation. Es bleibt also weiterhin spannend und wir sind uns sicher: da wird noch einiges auf uns zukommen.

Artikel kommentieren