Was lehrt uns der gigantische Erfolg von KI-Chatbots wie ChatGPT

KI-Chatbots, die mithilfe von künstlicher Intelligenz (KI) und maschinellem Lernen (ML), menschenähnliche Konversationen führen können und sogar programmieren, dichten, Bilder erschaffen, Musik komponieren, finden rasend schnell einen Platz im Alltag vieler Menschen. Der von OpenAI entwickelte Service ChatGPT brauchte ganze fünf Tage ab Launch, um auf eine Million aktiver Nutzerinnen und Nutzer zu kommen – Instagram brauchte dafür 75 Tage, Spotify 150 Tage. Vier Monate nach Veröffentlichung hat ChartGPT über 100 Millionen Nutzerinnen und Nutzer.   

Im Gesundheitswesen höre ich oft die Frage, wie wir denn Menschen Technologie und digitale Lösungen schmackhaft machen können. Meine Antwort: der Nutzen muss so überzeugend sein, die Anwendung und der Zugang so selbsterklärend und einfach, dass Menschen einen Mehrwert empfinden. Dann nutzen sie Technologien auch. Wir leben im Zeitalter der Instant Gratification, der unmittelbaren Belohnung – alles ist nur einen Klick entfernt. Für Medizin und Gesundheitswesen ist das eine Herausforderung. Der gefühlte Nutzen für Menschen spielt im Gesundheitswesen heute so gut wie kaum eine Rolle – im Zulassungsprozess und der Nutzenbewertung von neuen Medikamenten ist deren „Usability“ kaum relevant – diese Denke zieht sich durch das Gesundheitswesen und ist nicht mehr zeitgemäß. Spätestens wenn Lösungen dann in der breiten Versorgung eingesetzt werden, wird klar, dass sie weniger genutzt werden, wenn sie kompliziert und unangenehm in der Anwendung sind. Im digitalen Zeitalter sind die Nutzungsfreundlichkeit und der gefühlte Nutzen zentralere Faktoren. Diese Erkenntnis setzt sich langsam auch im Gesundheitswesen durch. 

Auf KI basierende Sprachmodelle sind für mich das Optimum der Nutzerfreundlichkeit -  insbesondere, wenn sie mit Sprachassistenten verbunden werden. Sie fühlen sich einfach natürlich an – sie verweben sich noch viel stärker mit der analogen Realität, als jeder Screen, jedes Interface. Stellen Sie sich vor, jeder Arztbrief, jede Abrechnung, jede notwendige Dokumentation kann on-the-go mit Hilfe von gesprochener Sprache mit automatisierter Unterstützung erledigt werden, KI-basierte Diagnoseunterstützung und Decision-Support bringen Spitzenmedizin in jedes Dorfkrankenhaus weltweit Es ist vorstellbar, dass die Nutzung verpflichtend wird – und die Haftung beim Menschen verbleiben wird – ähnlich wie in der Luftfahrt heute. KI-basierte Dienste können Patientinnen und Patienten dabei unterstützen, ihre Gesundheit zu verstehen, sie können (älteren) Menschen Unterstützung bieten, die Schwierigkeiten haben, ihre Medikamente regelmäßig einzunehmen oder Arzttermine zu organisieren und können auch dabei helfen, medizinische Fachbegriffe zu erklären und gesundheitsbezogene Fragen zu beantworten. ChatGPT tut dies heute schon – und erste Gutachter schätzen den Chatbot daher als ein zu regulierendes Medizinprodukt ein. Bisher bleibt die Frage allerdings unbeantwortet, welche regulierende Behörde hier zuständig sein könnte. 

Wie diese Dienste mit Daten umgehen, ob die Algorithmen und die genutzten Datenpools ethischen Grundsätzen entsprechen, das steht auf einem ganz anderen Blatt. Viele KI-Modelle sind nicht transparent, die Hersteller legen nicht offen, wie sie genau arbeiten. Die Wahrheit ist, dass sie es zum Teil selbst nicht wissen – es sind neuronale Black-Boxes. Wenn ein solches System immer intelligenter wird, kann irgendwann ein System entstehen, das ausbrechen kann und es vielleicht auch wird. Hier besteht großer Handlungsbedarf und mein Eindruck ist, dass die Hersteller vom KI-Goldrush so überwältigt sind und diesem Thema keine Priorität einräumen. 

Jeder Nutzer und jede Nutzerin sollte in der Zukunft in der Lage sein, zu verstehen, wie KI-Modelle funktionieren. Auch das Thema Datenschutz spielt natürlich eine Rolle: Es ist wichtig, dass KI-Systeme die Privatsphäre und Daten von Benutzern respektieren. Hinzu kommt ein weiteres Thema: IP & Urheberrecht, denn es gibt erste Hinweise, dass genannte Chatbots auch Inhalte, die hinter einer journalistischen Paywall zu finden sind, in ihren Datenpool einspeisen, oder KIs, die Bilder erschaffen, dies auf Basis anderer Kunstwerke tun, deren Erschaffer nie zugestimmt haben. Ist das ethisch? Italien hat im März 2023 als erstes Land ChatGPT gesperrt – die Datenschutzbehörde bringt als Begründung vor, dass ChatGPT Nutzerdaten massiv sammelt und speichert, um Algorithmen zu trainieren.  Ein Vertreter der Behörde sagte „Wired“: „Wer medizinische Forschung betreibt, muss die Zustimmung für Experimente einholen. Diejenigen, die mit neuen Technologien experimentieren, müssen den Prozess ebenfalls transparent machen".

Heute wissen wir nicht, wie KI die Welt verändern wird – das können wir nur in der Retrospektive verstehen.

Vorheriger Artikel Nächster Artikel
>> Wir leben im Zeitalter der Instant Gratification, der unmittelbaren Belohnung – alles ist nur einen Klick entfernt. <<
Inga Bergen
Visionäre der Gesundheit