Die Mondlandung des Gesundheitssystems

Woran geht eigentlich die Welt zugrunde? Diese Frage ist nur auf den ersten Blick etwas für Spinner oder Hollywood-Regisseure. Tatsächlich beschäftigen sich regelmäßig renommierte Wissenschaftler mit der Frage, was die größten Risiken für das Aussterben der Menschheit sind. Basis einer aktuellen Studie des amerikanischen Forecasting Research Institutes mit dem Titel „Forecasting Existential Risks Evidence from a Long-Run Forecasting Tournament“ ist die Befragung verschiedener Expertengruppen und Wissenschaftler, die andere Prognostiker von ihrer Risikoeinschätzung zu überzeugen versuchten. Die daraus gewonnenen Erkenntnisse, Annahmen und Hochrechnungen sind nicht für wohligen Grusel oder Endzeit-Fantasien gedacht, auch nicht als Stoff für neue Katastrophenfilme. Stattdessen haben derartige Daten häufig eine eher technisch-dröge Relevanz und dienen, etwa für den Kapitalmarkt oder Versicherungen, als Referenzgröße für andere Gefahren, gegen die es sich abzusichern gilt.  

Was die konkreten Ergebnisse der Studie angeht, können wir uns zunächst ein wenig entspannen: Beide Forschergruppen, sowohl die Fach-Experten als auch die sogenannten „Superforecaster“, taxieren das Risiko eines Weltuntergangs bis zum Jahr 2100 auf zwischen 1 und 6 Prozent. Das wahrscheinlichste Szenario für den Weltuntergang und das Aussterben der Menschheit ist - ein wenig überraschend - nicht der Klimawandel. Er rangiert erst auf den hinteren Plätzen, noch nach einem Atomkrieg oder Naturkatastrophen wie etwa einem Kometeneinschlag. Relevante Risiken sehen beide Forschergruppen zudem durch eine neuerliche weltweite Pandemie, sei es menschengemacht oder durch natürliche Mutation. In der größten Gefährdung für die Menschheit sind sich alle Forscher absolut einig: Durch nichts droht der menschlichen Zivilisation so große Gefahr wie durch den Kontrollverlust über die Künstliche Intelligenz – also durch Maschinen und Software, die sich gegen ihre Schöpfer wenden. Am lautesten vor den Gefahren von KI warnen ausgerechnet jene Experten, die sich am intensivsten mit der Thematik beschäftigen. Und auch der 2018 verstorbene britische Astrophysiker Stephen Hawking hatte noch rund ein Jahr vor seinem Tod erklärt: „Künstliche Intelligenz kann die großartigste Errungenschaft der Menschheit werden. Bedauerlicherweise kann sie auch die letzte sein.“

Was sagt uns diese Studie? Zunächst einmal unterstreicht sie die gewaltige Dynamik und Kraft, die Forscher dem Thema Künstlicher Intelligenz und seinen Einsatzformen zubilligen. Jeder, der in den letzten Monaten schon einmal die vergleichsweise einfachen Anwendungen wie etwa ChatGTP genutzt hat, hat wahrscheinlich gespürt, welch unglaubliches Potenzial, aber auch welche Gefahren damit verbunden sind. Ich finde, gerade in der Wissenschaft und zumal in der Medizin haben wir die Aufgabe, neue Perspektiven zum Wohle der Menschen zu nutzen. Nicht naiv, aber zielstrebig. Insofern kommt es für mich bei Künstlicher Intelligenz darauf an, diese neue Technologie und deren Einsatz mitzugestalten. Und zwar so, dass der Nutzen für die Menschen die Gefahren übersteigt.   

Und ehrlich gesagt: Ich habe weniger Angst vor dem Weltuntergang als davor, einmalige Chancen für die signifikante Verbesserung der medizinische Versorgung NICHT zu nutzen. Gleichwohl bin ich davon überzeugt, dass KI die Gesellschaft in ähnlicher Weise prägen und umgestalten wird wie die industrielle Revolution oder gar die neolithische Revolution vor über 10.000 Jahren. Aus den Ergebnissen der Studie erwächst daher für mich vor allem Verantwortung. Verantwortung, Gefahren zu erkennen, aber gleichzeitig die Perspektiven nicht außer Acht zu lassen. Das ist für uns in der Medizin übrigens nicht neu, sondern Tagesgeschäft. Wir kennen die Abwägung von Chancen und Gefahren aus unserem Arbeitsalltag. Jede Operation, jede Therapie, ja sogar jede Medikamentengabe sollte immer das Verhältnis von Nutzen und Risiken berücksichtigen und idealerweise richtig gewichten. Und daher sage ich als Mediziner, aber insbesondere auch als Chef eines großen Unternehmens, das zukunftsfest gemacht werden muss: Verantwortlicher und kritischer Umgang mit KI – Ja! Verschenken von Chancen und Potenzialen – Nein! 

Vorheriger Artikel
>> Woran geht eigentlich die Welt zugrunde? <<
Prof. Dr. Jochen A. Werner
10xD