Im Interview mit MEDICA.de spricht Prof. Alena Buyx über selbstständig lernende Black Box-Algorithmen und die Herausforderungen, die sie für Medizin und Politik mit sich bringen.
Frau Prof. Buyx, wir sprechen über das Thema "Medizin 5.0" – was bedeutet das?
Prof. Alena Buyx: "Medizin 5.0" bezieht sich auf selbstlernende Algorithmen, die auch autonom Entscheidungen treffen können. "Autonom" bedeutet hier, dass sie sich selbst Verarbeitungsregeln anhand von Big Data, also großen Datensätzen, beibringen und darauf basierend Vorschläge für Diagnose und Therapie machen können. Dabei können wir aber nicht immer nachvollziehen, was hinter Einzelschritten steckt, mit denen sie zu diesen Vorschlägen gekommen sind.
Würden diese Algorithmen denn wie eine Black Box funktionieren, deren Abläufe wir nicht kennen?
Buyx: Man versucht, klassische Black Box-Algorithmen in der Medizin zu vermeiden. Das ist eine ethische Forderung, die ich unter anderem auch vertrete: Wir müssen noch nachvollziehen können, was in der Black Box passiert - nicht mehr zwangsweise jeden Schritt, aber wir sollten wissen, welche Entscheidungsparameter ein Algorithmus verwendet. Und das sollten medizinische Kriterien sein und nicht solche, die zwar irgendwie statistisch zum Befund führen, aber keine klinische Relevanz haben.
Ein bekanntes Beispiel ist ein Algorithmus, der auf Röntgenbildern Tuberkulose diagnostizieren sollte. Er hat sich unter anderem die Ränder von Röntgenbildern angesehen und dann festgestellt, als er sich selbst trainiert hat, dass auf Bildern von mobilen Röntgengeräten häufiger Tuberkulose zu sehen ist. Das liegt aber daran, dass die mobilen Geräte häufiger in Ländern mit einer hohen Tuberkulose-Prävalenz eingesetzt werden. Das ist natürlich ein völlig medizinfremder Faktor, der keine gute klinische Präzision zulässt. So eine Form der Black Box darf es nicht geben. Sie braucht eine Annotation, um die groben Kriterien zu beschreiben, und dann müssen wir den Algorithmus auch verändern können, damit er ein Kriterium nicht mehr einsetzt.