Warum wir Explainable AI brauchen
Warum wir Explainable AI brauchen
Die digitale Transformation der Gesundheitssysteme kommt ohne Künstliche Intelligenz (KI) nicht mehr aus. Das ist wenig überraschend, denn in den letzten Jahren hat KI sowohl technologisch als auch medial ein enormes Wachstum erlebt. Doch diese rasante Entwicklung hat auch ihre Schattenseiten. Mit den wachsenden Fähigkeiten von KI-Systemen steigen auch die Komplexität und die Vielfalt der eingesetzten Methoden, wodurch KI für immer weniger Menschen nachvollziehbar wird. Wer kann schon erklären, wie Transformer oder künstliche neuronale Netze funktionieren? Man könnte meinen, es genügt, wenn KI-Entwickler sich damit auskennen. Doch selbst das ist nicht immer der Fall.
Das Blackbox-Problem
Stellen wir uns vor, ein Startup entwickelt eine KI, die medizinische Diagnosen mit 100-prozentiger Genauigkeit stellt – ein medizinisches Wunder. Das System muss dafür aber so komplex sein, dass die Entscheidungsfindung selbst für die Entwickler eine Blackbox bleibt. Wie soll man Patienten und Ärzten glaubhaft machen, dass die Diagnosen verlässlich sind? Wie soll ein Arzt die Information sinnvoll in den Behandlungspfad einbinden? Und wie können mögliche Biases kontrolliert werden? Diese Fragen lassen sich mit einer transparenten KI beantworten, selbst wenn sie eine gewisse Fehlerquote hat. In der Realität ist ohnehin keine KI fehlerfrei, was in Ordnung ist, solange wir verstehen, wie sie funktioniert. Das ermöglicht es, sie kritisch zu hinterfragen und iterativ zu verbessern. Eine Blackbox, die ungenügende oder sogar diskriminierende Ergebnisse liefert, ist katastrophal für jeden Anwendungsfall. Beispiele hierfür gab es in den vergangenen Jahren bei Google (Streams App), Amazon (KI-Recruiting) und Apple (Apple Card).
Die Balance zwischen Technologie und Kompetenz
Deshalb müssen wir in Zukunft dringend auf Explainable Artificial Intelligence (XAI) setzen. XAI umfasst Methoden und Techniken, die entwickelt wurden, um Funktionsweisen und Entscheidungen von KI verständlich zu machen. Dadurch können Vertrauen und Akzeptanz gefördert werden, Fehler besser identifiziert und korrigiert werden, regulatorische Anforderungen erfüllt werden und Fairness von Anwendungen sichergestellt werden. Gerade im Gesundheitswesen sind Vertrauen in neue Techno- logien gering und regulatorische Anforderungen hoch. Trotzdem sollten wir bedenken: Ein Flugzeug fliegt nicht ohne Piloten, Pfanne und Messer funktionieren nicht ohne Koch. Ebenso wenig kann selbst die beste KI-Technologie ohne fähige Anwender auskommen. Neben Erklärbarkeit, Sicherheit und weiteren Anforderungen sind daher auch die richtigen Kompetenzen bei den Stakeholdern erforderlich. Es ist nicht notwendig, dass alle zu KI-Experten werden, aber sie sollten befähigt werden, die für ihre Rolle relevanten Fragen beantworten zu können. Die Einführung der elektronischen Patientenakte (ePA) hat gezeigt, wie herausfordernd es sein kann, selbst einfache Technologien im Gesundheitswesen zu etablieren, wenn Kompetenzen und Akzeptanz fehlen. Komplexe KI-Lösungen wie Google’s AlphaFold (Vorhersage von Prote- instrukturen) verhalten sich zur ePA wie ein Flugzeug zu einem Fahrrad. Das erfordert ein Vielfaches an Aufklärungsarbeit. Das bedeutet, dass sichere und erklärbare KI-Lösungen ebenso notwendig sind wie Initiativen zur Förderung der KI-Kompetenzen der Anwender. Nur wenn wir es schaffen, KI greifbar zu machen und die richtigen Voraussetzungen zu schaffen, kann ihr volles Potenzial ausgeschöpft werden. KI allein wird die Herausforderungen im Gesundheitswesen jedoch nicht lösen können – sie ist ein Werkzeug, das richtig eingesetzt werden muss und kein Akteur, der eigenständig handelt. Letztlich liegt es an uns, die Möglichkeiten von KI sinnvoll zu nutzen und sie in den Dienst der Gesundheit zu stellen.