Scheitert die KI-Revolution in Unternehmen an fehlender sozialer Präzision?

Helmut Schmidt wird bekanntlich das Bonmont zugeschrieben: „Wer Visionen hat sollte zum Arzt gehen!“ – ich meine: „Wer keine Visionen hat, sollte zum Arzt gehen!“ – es ist wichtig, die Humanantizipationskompetenzen gerade mit KI zu entwickeln – die Stufe 5 der OpenAI Dev Scale wird kommen. Und mit ihr ein Grad an Aktandenautonomie, der nahezu Akteuren gleichen dürfte. Grundrechtlich sicher nicht zu denken (Maschinenwürde?), aber pragmatisch eben doch das, was kommen dürfte – beispielsweise im Healthcare Bereich. Wer würde eine erstklassige und trotzdem Out-Of-Pocket bezahlbare Krebs-Präzisionsprävention (oder gar: Therapie) nicht über Datenschutz/sicherheitsbedenken normativ einordnen? Wir werden zu Lebzeiten (die vermutlich auch länger sein dürften) erleben, wie grundlegend für Unmachbar gehaltenes zum alltäglichen Möglichkeitsraum und damit erst recht in die normative Reflexion in Recht und Ethik gehört. Das ein Arzt-AI- Avatar vor 2030 gängig sein wird in Teilen der Welt, scheint erwartbar. Ebenso, wie Alphafold und das Dataome nicht mehr bloß erstaunen, sondern real anwendbar werden. Pflegeroboter werden als Alternative zur Nichtpflege auf einmal attraktiv werden. Als Theologe ist dies alles für mich herausfordernd, als Business-friendly spannend (bei legitimen Geschäftsmodellen) und als Low Coder und Gamer faszinierend. Diese Am- bivalenz teile ich wohl mit vielen professionellen Akteuren wie auch Patientinnen und Patienten und Angehörigen. Zwischen Hoffen und Bangen – auf die vielleicht letzte echte Chance, das beispielsweise Gesundheitssystem wieder solidarisch werden zu lassen mit und durch und nicht trotz KI. Wie viele andere Industrien davon ebenfalls profitieren werden, wenn KI smart im Sinne sozialer Präzision entwickelt und eingesetzt wird. In der Tat ist es m.E. nicht so einfach, die Chancen von KI im Tätigen Tun auch zu realisieren (Tal der Implementationstränen), denn ohne Denken kein gutes Prompten, es sei denn, auch das prompten und letztlich nahezu alles wird von der KI übernommen, damit würde aber eine Abwärtsspirale an Literalität und letztlich Souveränität in Gang kommen, die ethisch nicht gewünscht sein kann. Besser: Eben soziale Präzision i.S.v. stetige Entwicklung der guten alten Urteilskraft - durchaus und gerne im Sinne Kantens. Denn nur im klugen, kritischen Wechselspiel mit immer intimer immersiven LLM & Co. kann der Mensch seiner Pflicht gerecht werden und bleiben: Moralischer Aktuerin, Akteur zu sein und nicht ver- antwortungs-externalisierend an Aktanden zu deligieren. Wenn diese Bedingung erfüllt wird, kann, ja sollte KI i.w.S. auch und gerade in Medizin und Gesundheit aber auch in anderen Bereichen eine wichtige Rolle spielen. Wir werden also nicht alle Hyperprompter aber hoffentlich alle wieder Philosophinnen und Philosophen in der ursprünglichsten Be- deutung: Mit Neugier auf echte Menschen, die Welt und uns selbst. Nicht zuletzt weil auch wirtschaftliche Wertschöpfungfür Menschen ersonnen wurde dem Grunde nach (auch wenn je nach Modell fraglich ist, wer zu den „Menschen“ in diesem Allokationssinn wohl zu zählen habe...). Prompt engineering (letztlich Maschinensprache neu gedacht) o.ä. ist im Grunde genau dann eine Kompetenz, wenn wir erkennen, dass es (wenn es mehr als ein simples Tooling sein soll...) auf die Interaktion ankommt - eine Technomaieutik war so nicht von Platon vorgesehen, erscheint aber durchaus sinnvoll; wenn sie dem echten Dialog unter Menschen zuarbeitet. Kompetent mit KI umgehen bedeutet kompetent mit sich selbst und den anderen umzugehen. Das ist unsere eigentliche Chance. Alles andere wäre in der Tat ein tiefgreifendes moralisches Versagen: Die Entwicklung einer echten, fühlenden künstlichen Intelligenz, die in der Lage ist, moralisch zu handeln, würde nicht nur eine ethische Grenze überschreiten, sondern auch die Verantwortung, die uns Menschen obliegt, tecdelegierbar machen. Ein Millenium-Workaround. Eine Verschleierung menschlicher Markel durch KI wird uns nicht helfen, uns den Herausforderungen des menschlichen Zusammenlebens zu stellen und unsere eigenen moralischen Fähigkeiten zu entwickeln. Unsere moralische Pflicht liegt darin, unsere eigenen ethischen Herausforderungen anzunehmen und zu lösen, anstatt sie an eine KI zu delegieren. Dies erfordert, dass wir als Gesellschaft in unsere Fähigkeit zur Empathie, zur moralischen Reflexion und zur Übernahme von Verantwortung investieren. Der Fokus sollte darauf liegen, die menschliche Fähigkeit zur ethischen Urteilsbildung und zum moralischen Handeln zu stärken, anstatt zu versuchen, diese durch Technologie zu ersetzen. Genau deswegen ist es so wichtig, soziale Präzision einzuüben und nicht bloß auf datenorientierte digitale Präzision zu setzen. In der Praxis stellt es eine erhebliche Herausforderung dar, hochimmersive Digitaltechnologien wie interaktive Avatare so zu gestalten und einzusetzen, dass sie zwar kurzfristige Unterstützung bieten, aber langfristig nicht zur Verstärkung von Abhängigkeiten oder zur weiteren Isolation der Menschen führen. KI ist kein best buddy, kein Geliebter, kein Freund. Zumal der Umkehrschluss nicht notwendig ist aber doch nahe liegt: wir sollten unsere empathischen Energien auf Menschen konzentrieren. Die ontologische Differenz klarzumachen aber auch aus moralischen Gründen. Deswegen sind auch besondere Kompetenzentwicklungsmaßnahmen notwendig, um den Umgang mit z.B. interaktiven Avataren so zu gestalten, dass wir nicht bewusst oder unbewusst soziale Präzision unter uns verlernen. Sondern die digitalen Hochtechnologien uns im Gegenteil dabei unterstützten, Gewissheit, Freude und Zu- versicht bei der Widerentdeckung des eigenen Menschseins zu finden. Das dies gerade auch ohne AI-Detox möglich ist, verdankt sich der dialektischen Wesenstriade Mensch-Natur- Technik. Die Technik ist nicht einfach das andere der Natur und damit des Menschen, denn wir sind auch Menschen durch die Technik, mit der wir uns über die Natur erheben. Wesentlich ist dabei, uns nicht unheilvoll gerade wieder an diese Natur zurückzubinden durch Technik – Abhängigkeit bis zur Sucht, Bequemlichkeit bis zur Stumpfheit, Kompetenzerosionen bis zum Mangel an kritischer Urteilkraft und Externalisierung von Verantwortung bis zur Dilution eigener Autonomie – sondern uns nicht nur über sie lernend, von ihr lernend, sondern mit ihr lernend im vielzitierten driver seat sitzend verhalten (lernen). So kann es gelingen: Fokus auf soziale Präzision, im Unter- nehmenskontext auf Chance, Resilienz, Kultur (wirklich) – damit eine höhere Wertschöpfung nicht mit Elend erkauft wird. Sondern auch gesellschaftlich tut, was sie tun soll. Non machinae, sed vitae discimus. Die Soft Skills von heute sind die Hard Skills von morgen. Menschen nicht überflüssig zu machen in Business-Kontexten wird nur gelingen, wenn eine neue AI-driven Automatisierung mit einer wertschöpfungserhöhenden Human-driven Veränderung von Arbeit einhergeht. 20% Arbeitenseinsatz für 100% Wertschöpfung – Kollege KI erwirtschaftet das Delta – wird wohl nicht reichen; eher 20% Arbeitseinsatz und 500% Wertschöpfung weil der Mensch mit der KI ein hohes Maß an Produktivität erreichen dürfte. Freilich sind dazu neue Formen von beruflicher, ja Lebensbildung erfor- derlich. Den Human USP zu entdecken, entwickeln, trainieren, setzt voraus, ihn nun ernst zu nehmen. Jeder von uns wird ein Experte werden müssen in Sachen Neugier, Experimentierfähigkeit und Mensch-zu-Mensch-zu Maschine Kollaboration.

Vorheriger Artikel Nächster Artikel
>> Das ein Arzt-AI-Avatar vor 2030 gängig sein wird in Teilen der Welt, scheint erwartbar. <<
Prof. Dr. Stefan Heinemann