- Aktuelles
- Newsletter
- Newsletter Juli/August 2019 | Nr. 179
- Editorial: Künstliche Intelligenz im Gesundheitswesen: Hype or Hope?
Editorial: Künstliche Intelligenz im Gesundheitswesen: Hype or Hope?
Stellen Sie sich vor, Sie werden von Ihrer Hausärztin kontaktiert, weil bei Ihnen ein hohes Risiko für einen baldigen Spitalsaufenthalt festgestellt wurde. Das Risiko wurde aus unterschiedlichsten demographischen und sozioökonomischen Daten und Daten Ihrer bisherigen Nutzung von Gesundheitsleistungen ermittelt. Die Ärztin bespricht mit Ihnen, was Sie tun können, um den Spitalsaufenthalt möglichst zu verhindern. Was wie Science-Fiction klingt, ist bereits Realität. Unter dem Titel „RiskER“ wurde diese Risikoanalyse in der italienischen Region Emilia-Romagna an 16.000 BügerInnen pilotiert. Dieses Projekt ist nur eines aus einer Vielzahl bereits existierender Anwendungsbeispiele, wo unterschiedliche Daten verknüpft werden und unter dem Überbegriff künstliche Intelligenz permanent große Datenmengen für diagnostische und prädiktive Zwecke analysiert werden. Eine Literaturübersicht identifizierte drei bereits bestehende Anwendungsbereiche: (1) beim Risiko-Assessment für die Entstehung einer Erkrankung oder für die Vorhersage eines Behandlungserfolges vor Behandlungsbeginn (siehe obiges Beispiel), (2) beim Management von Komplikationen (z. B. Vorhersagen für diabetische Komplikationen), (3) bei der laufenden Betreuung von PatientInnen (z.B. Evaluation neurologischer Defizite nach Schlaganfall) (Becker 2019).
Künstliche Intelligenz wird von den BefürworterInnen als das neue Wundermittel verkauft, diverse Herausforderungen im Gesundheitswesen und in vielen weiteren gesellschaftlichen Bereichen (Bildung, öffentliche Verwaltung, Kriminalitätsbekämpfung etc.) zu meistern. Dass große Beträge an Risikokapital (u.a. von bekannten Unternehmen wie Google, Facebook, Alibaba) in die Forschung und in diverse Start-Ups gepumpt werden, sollte uns zumindest dahingehend alert machen, dass Unternehmen beim Thema künstliche Intelligenz offensichtlich hohe Gewinnchancen wittern. Ob wir mit den verkauften Produkten die tatsächlichen Probleme im Gesundheitssystem lösen, ist zu hinterfragen.
„For me it’s still an open question whether this field will be not just smart but also wise” meint Geoff Mulgan, Chief Excecutive von Nesta, der UK innovation foundation (Mulgan 2019). Was er beobachtet ist, dass die Entwickler der auf künstlicher Intelligenz basierten Analysetechnologien gerne mit der Lösung starten und dann nach einem Problem suchen, anstatt mit dem Problem zu beginnen. Welches Problem lösen wir etwa mit „Lexplore“ – einer Technologie, mit der die Analyse der Augenbewegung bei Kindern zur Diagnose von Legasthenie eingesetzt wird und die derzeit an schwedische Schulen verkauft wird – wenn es zu wenig kompetente Fachkräfte für die gezielte Förderung der betroffenen Kinder gibt?
Eine unserer zentralen Herausforderungen im Gesundheitswesen ist die mangelnde Umsetzung bestehenden Wissens zu vielen Präventions- oder Behandlungsansätzen in die Praxis und in das individuelle Verhalten. Worum es daher primär geht, ist eine Veränderung von Kulturen, Prozessen und Verhalten – bei KlinikerInnen, Pflegekräften und TherapeutInnen, bei den Entscheidungsträgern und bei uns selber als BürgerInnen (z.B. Lebensstil) oder PatientInnen (z.B. bessere Compliance bei Medikamentenverschreibung) – und die Veränderung der Rahmenbedingungen (Gesundheitsdeterminanten wie z.B. Einkommen, Bildung). Bessere Vorhersagen mit automatisierten Systemen sind hier kaum der Schlüssel zur Lösung. „Change processes will take place in hospitals and physician offices, not in Silicon Valley“ argumentieren hierzu E. Emanuel und R. Wachter (2019, S. 2281).
Ein Bericht der Bertelsmann-Stiftung fordert beim Thema künstliche Intelligenz nicht nur isoliert „die Technologie“ zu analysieren (z.B. hinsichtlich diagnostischer Genauigkeit), sondern vielmehr das damit verbundene automatisierte Entscheiden als Ganzes zu betrachten (wie wurde das System entwickelt, warum wird überhaupt eine automatisierte Entscheidung angestrebt, welche Daten werden dabei benutzt, welche Diskriminierungspotenziale bestehen etc.). Außerdem braucht es aktives Empowerment der BürgerInnen, damit diese selber ausreichend kompetent sind, die Technologien zu verstehen und kritisch zu bewerten, aber auch aktiven Aufbau von Expertise in den öffentlichen Verwaltungen, damit diese fähig sind, die angebotenen Systeme kritisch einzuordnen oder Datensysteme selber aufzubauen, jedenfalls den Umgang mit künstlicher Intelligenz aktiv zu gestalten anstatt nur passiv zu reagieren.
Viele ethische und rechtliche Fragen sind zu diskutieren: Wer ist etwa verantwortlich, wenn bei der Anwendung einer Technologie Fehlentscheidungen die Folge sind? Die ProgrammiererInnen, die Behandler, oder die PatientInnen selbst und ist überhaupt noch ausfindig zu machen, wo genau der Fehler liegt (z.B. bei Systemen, die auf „machine learning“ beruhen), wie kann Datenmissbrauch verhindert werden, etc.?
Nicht zuletzt ist den wenigsten Enthusiastinnen der künstlichen Intelligenz bewusst, welche CO2-Belastung wir mit dem Management der exponentiell ansteigenden Datenmengen und deren Analyse u.a. durch den enormen Energieverbrauch verursachen.
Dr. Ingrid Zechmeister-Koss, stellvertretende Institutsleiterin des LBI-HTA
Algorithm Watch, Bertelsmann Stiftung. 2019. Automating Society. Taking Stock of Automated Decision Making in the EU. Berlin: AW Algorithm Watch gGmbH. https://www.bertelsmann-stiftung.de/fileadmin/files/BSt/Publikationen/GrauePublikationen/001-148_AW_EU-ADMreport_2801_2.pdf
Becker A. 2019. Artificial intelligence in medicine: What is it doing for us today? Health Policy and Technology 8: 198-205.
Emanuel E. und Wachter R. 2019. Artificial Intelligence in Health Care. Will the Value Match the Hype? JAMA 321 (23): 2281-2282.
Jannes M et al. 2018. Algorithmen in der digitalen Gesundheitsversorgung. Eine interdisziplinäre Analyse. Gütersloh: Bertelsmann Stiftung.
Mulgan G. 2019. Intelligence as an outcome not an input. How can pioneers ensure AI leads to more intelligent outcomes? https://www.nesta.org.uk/blog/intelligence-outcome-not-input/?utm_source=Nesta+Weekly+Newsletter&utm_campaign=848de748ed-EMAIL_CAMPAIGN_2019_06_07_10_07&utm_medium=email&utm_term=0_d17364114d-848de748ed-181935481