Chat-GPT ist „erst“ der Anfang…

Aktuell kann man den Eindruck gewinnen, große Sprachmodelle (kurz LLM – Large Language Model) seien die größte Revolution der Menschheit, der Gesellschaft und natürlich der IT, seit der Einführung des Internets. Kein Tag vergeht, an dem nicht mindestens ein neues Anwendungsbeispiel für BARD, Chat-GPT, Luminous etc. auf Instagram, LinkedIn oder gar in den großen deutschen Tageszeitungen die Runde machen. Vieles von dem, was dort präsentiert wird, kommt – zumindest für den langjährigen IT-Mitarbeiter – weniger einer Revolution gleich, sondern vielmehr einer Evolution von bekannten Use Cases, Werkzeugen und Prozessen. Unabhängig davon, ob hype oder gerechtfertigte Aufregung: Künstliche Intelligenz ist in der Mitte der Gesellschaft angekommen und hat nun einer breiten Masse die Fähigkeiten der Maschinen aufgezeigt. 

Paradigmenwechsel durch generativer KI

Die Bedeutung „generativer KI“ – zu denen Bard, LaMDA, PaLM, BERT als textbasierende LLMs gehören – sind für den Gesundheitssektor, dieMedizin aber auch insbesondere für die Krankenhaus-IT nichtsdestotrotz bedeutsam. Denn, KI erfährt mit dem Aufkommen großer Modelle einen Paradigmenwechsel: Große grundlegende Modelle, die auf umfangreichen Daten trainiert wurden, können an eine Vielzahl von nachgelagerten Aufgaben angepasst werden, für die sie explizit nicht trainiert wurden und diese Aufgaben dennoch ausreichend gut absolvieren. LLM-basierte Anwendungen erschließen somit eine Bandbreite von neuen Anwendungsfällen. Darüber hinaus stellt die Verfügbarkeit großer vortrainierter Open-Source-Sprachmodelle in Kombination mit Transfer-Lerntechniken weitere Möglichkeiten zur schnellen Entwicklung hochspezialisierter LLM-Anwendungsfälle für einen breiteren Kundenstamm in Aussicht. Ein Sweetspot textbasierende LLMs haben die Fähigkeit unstrukturierte Daten intelligent zu durchsuchen, zu extrahieren, zu klassifizieren, zu clustern, zusammenzufassen, zu umschreiben oder auch Texte auf Basis des Wissens der bestehenden Dokumente neu zu schreiben. Unstrukturierte Daten machen nach wie vor einen Großteil der medizinischen Daten – bspw. Befundberichte, Behandlungspläne oder Patientenstudien – aus und profitieren daher überproportional stark von der aktuellen Entwicklung: Denn, LLMs können Muster und Verbindungen in massiven, disparaten Datenkorpora finden.

Verbraucher, Unternehmen und Krankenhäuser haben unterschiedliche Bedürfnisse…

Es gibt einige wesentliche Unterschiede zwischen den Bedürfnissen von Verbrauchern und Unternehmen, wenn es um große Sprachmodelle respektive generativer KI geht. Verbraucher suchen in der Regel nach Angeboten, die ihnen ein personalisiertes und ansprechendes Erlebnis bieten können. Sie wollen Systeme, die ihre natürliche Sprache verstehen und auf eine Weise antworten können, die für ihre Interessen relevant sind. Beispielsweise sucht ein Verbraucher Unterstützung bei der Planung einer Reise oder ist auf der Suche nach einem neuen Produkt. Die natürlich-sprachliche Fragebeantwortung – eine Kernfunktion textbasierender LLMs – bietet Benutzern genau dieses völlig neue Erlebnis in seiner Recherche.

Unternehmen, Krankenhäuser und Geschäftskunden hingegen suchen in der Regel nach Ansätzen, die ihnen helfen können, Aufgaben zu automatisieren und die Effizienz zu verbessern. Sie wollen LLMs, mit denen große Datenmengen analysiert und Muster erkannt werden können. Genannt sei der Einsatz von LLMs um betrügerische Transaktionen zu identifizieren oder Kundenabwanderung vorherzusagen. Darüber hinaus haben Unternehmen oft unterschiedliche Anforderungen in Bezug auf Sicherheit, Compliance und Datenschutz. Sie müssen sicherstellen können, dass LLMs so eingesetzt werden, dass sensible Daten geschützt und Vorschriften eingehalten werden. Unternehmen können ein LLM verwenden, um umfassende Berichte über Kundendaten zu erstellen, aber gleichzeitig müssen Maßnahmen ergriffen werden, dass diese Daten nicht missbraucht werden. Daher wird es nicht das EINE große Modell geben, sondern vielmehr eine Vielzahl unterschiedlicher Modelle, die den jeweiligen Business-Kontext optimal adressiert. 

Die Zukunft liegt nicht in dem einen Modell, sondern in einer Modellbibliothek

Die Geschwindigkeit, in der neue Anwendungsfälle generativer KI aufkommen, nimmt weiter zu. Neben textbasierenden LLMs, entstehen auch immer mehr multimodale Modelle. Damit nimmt auch die angestrebte Applikationslandschaft deutlich zu: Code, Video, Sprache, Bilder, 3D aber auch Gaming, RPA, Musik sowie Biologie, Chemie und Medizin sind nur einige Felder mit hochspezialisierten Modellen. Der Gesundheitssektor birgt dabei ein besonderes Potential, was vor allem die Großen Tech-Konzerne – wie Google, Microsoft, Amazon, Apple, Meta, Nividia, Alibaba etc. – frühzeitig erkannt haben und mit spezifischen Lösungen adressieren. Interessante Ansätze mit beeindruckenden Ergebnissen zeigen bspw. MedPaLM (Modell zur Beantwortung medizinischer Fragen), AlphaFold2 (21 Mio. Parameter zur Proteinstrukturvorhersage), Amazon Comprehend Medical (HIPAA-fähiges vortrainiertes Modell zum Extrahieren medizinischer Informationen aus unstrukturiertem medizinischem Text), BioGPT (Generativer vortrainierter Transformer für die Generierung und das Mining von biomedizinischen Texten), BioNeMo (Cloud-API, die LLM-Anwendungsfälle über die Sprache hinaus auf wissenschaftliche Anwendungen erweitert, um die Arzneimittelforschung zu beschleunigen) oder auch Gatortron (Größtes klinisches Sprachmodell, das mit dem Megatron-Framework trainiert wurde). 

Was auch immer die Anforderungen der Zukunft sein werden, Unternehmen und Organisationen haben drei Möglichkeiten diese zu beantworten: (1) Die direkte Verwendung fertiger Modelle für eine Vielzahl von Anwendungsfällen „out-of-the box“ – einfach konsumierbar per API, (2) optimierte LLMs mit zusätzlichen Daten für bestimmte Branchen oder Anwendungsfälle schnell und effizient per Transfer-Learning adaptieren oder (3) individuell angepasste Open-Source-Datenmodelle von Grund auf neu aufbauen. So oder so sehen wir schon heute eine Zukunft, die von einer Modellbibliothek geprägt ist und weniger von „One model to rule them all“!

Vorheriger Artikel Nächster Artikel
>> KI steht vor einem Paradigmenwechsel: Große Modelle, die auf umfangreichen Daten trainiert wurden, können an eine Vielzahl von nachgelagerten Aufgaben angepasst werden. <<
Dr. Stefan Ebener
Head of Customer Engineering, Google