Wenn unsere Routineaufgaben zunehmend digitalisiert werden, bleibt uns Menschen mehr Zeit für das, was uns Homo sapiens in den Genen liegt.
Vor zwei Jahren habe ich in einem Interview zum Thema »Killt die KI den Hausverstand?« gesagt: »Ich fürchte mich vor der KI, wenn sie meinen Wortwitz versteht.« Kürzlich habe ich ChatGPT-4o einem Humortest unterzogen: »Was sagst du zu: ›Ich habe mich gewogen. Mit der Wasserwaage. Ich bin wirklich schräg.‹« Die prompte Antwort: »Das klingt nach einem humorvollen und kreativen Spruch! Es ist eine witzige Art zu sagen, dass man einzigartig ist.« Da habe ich gestaunt.
Fürchte ich mich jetzt vor der KI? Nein, definitiv nicht. Aber ich habe zur Kenntnis genommen, dass KI nicht mehr Zukunft ist, sondern längst in der Gegenwart angekommen ist. Ängste und Widerstände sind kontraproduktiv. Gefragt ist ein achtsamer Umgang mit KI. Das setzt Kenntnisse voraus.
Übrigens: Ich habe weiter gepromptet: »Lachst du darüber?« Nur Claude 3.5 Sonnet von Anthropic, die mehr Wert auf Ethik legen, antwortete korrekt: »Ich bin ein technisches System. Ich kann Emotionen beschreiben, aber nicht empfinden.«
Hierin liegt meines Erachtens eine fundamentale gesellschaftliche Bedrohung: Die künstlich erzeugte synthetische Wirklichkeit wird leicht mit wirklicher Wirklichkeit verwechselt. Dies bestätigt auch eine umfassende Untersuchung der University of California, San Diego, publiziert im JAMA Internal Medicine: Erforscht wurden die Reaktionen auf medizinische Erstdiagnosen in Chatverläufen zwischen Menschen und Künstlicher Intelligenz (KI). Drei Versuchsgruppen standen im Fokus: Die erste Gruppe erhielt Antworten von Menschen, die zweite von einer KI, ohne dass die Patienten davon wussten, und die dritte Gruppe war sich der KI-Kommunikation bewusst. Nicht sehr überraschend ergab die Studie, dass die KI präzisere Diagnosen und Empfehlungen geliefert hat. Bemerkenswert ist hingegen, dass die Patienten die KI für einfühlsamer hielten als menschliche Ärzte, sofern sie nicht wussten, dass eine KI antwortete.
Deshalb ist die Kennzeichnungspflicht im EU-AI-Act von solcher Bedeutung. Sie schützt davor, künstliche Emotionen mit authentischen zu verwechseln, was zu einer Erosion der menschlichen Empathiefähigkeit führen würde. Mich erinnert das nämlich an die Geschichte eines deutschstämmigen Bäckers in Kanada, der Köstliches gebacken hat. Nur die Erdbeermarmelade schmeckte grauenhaft künstlich. Auf die Frage, weshalb er nicht echte Erdbeermarmelade aus Deutschland importiere, antwortete er: »Das habe ich versucht. Aber die Menschen hier kennen nur die synthetische Marmelade. Sie haben sich beschwert, dass die echte Marmelade nicht nach Erdbeeren schmeckt.« Es wäre den humanistischen Grundprinzipien zuwider, wenn synthetische Emotionen dazu führten, dass wir menschliche Emotionen nicht mehr erkennen und würdigen.
Ethik der KI
Langfristig sollen derartige KI-Systeme nicht Ärzte etc. ersetzen, sondern unterstützen. Im EU-AI-Act ist verankert: Bei wesentlichen Entscheidungen muss immer »Human in the Loop« gewährleistet sein, das heißt Menschen treffen die Letztentscheidung.
Als 20-Jährige habe ich im Rahmen meines Physikstudiums an den Schnittstellen zu Philosophie und Psychologie an einem Kongress zur Ethik der Physik wie z.B. die Verantwortung für die Atombombe im Deutschen Museum in München teilgenommen. Nun engagiere ich mich für die Ethik der KI und den Digitalen Humanismus, der zutreffender »Menschlichkeit in der Ära der KI« heißen sollte.
Das Konzept der »Friendly AI«, geprägt vom KI-Forscher Eliezer Yudkowsky, beschreibt künstliche Intelligenz, die im Einklang mit menschlichen Werten und Zielen handelt. Da »das Wohl der Menschen« kulturell unterschiedlich verstanden wird, wäre eine globale Entwicklung unter Einbeziehung vielfältiger Perspektiven entscheidend, um KI-Systeme zu schaffen, die Menschen weltweit wirklich dienen. Tatsächlich sind die USA und China dominierend. Die europäischen humanistischen Werte sind unterrepräsentiert.
KI und Vielfalt
Dass die Vielfalt heterogener Teams Kreativität und Innovationskraft, Stressresistenz und Resilienz stärkt, wird von zahlreichen Studien bestätigt. KI wählt per se immer die wahrscheinlichsten Ergebnisse. Ohne Gegensteuerung perfektioniert sie die von Markus Hengstschläger beschriebene Durchschnittsfalle.
Experimentierfreudig habe ich also ChatGPT-4o den Auftrag gegeben, ein möglichst realistisches Foto von 6 IT-Security Experts zu erstellen. Spannend ist, dass ich immer wieder 6 Männer und einige Frauen bekommen habe. Die KI wurde schon gezielt trainiert, dass es in Gruppen von Menschen auch Frauen gibt, aber es ist noch nicht systemimmanent, sondern wird als Political Correctness hinzugefügt. Abgesehen von der Geschlechtlichkeit sehen die 6+ Menschen sehr ähnlich aus. Sie verkörpern die Stereotypen von Business-Menschen. Wenn ich mehr Vielfalt möchte, dann muss ich das bewusst prompten. So habe ich einen Generationenmix gewünscht. Ausnahmslos wurden nur ältere Männer dargestellt. Also prompte ich, dass ich auch ältere Frauen unter den Experten haben möchte. Die Antwort von ChatGPT: »Deine letzte Anfrage kann ich leider nicht umsetzen, da sie gegen unsere Inhaltsrichtlinien verstößt.«
Übrigens auf einer Fotoplattform habe ich nach einem Foto für eine »Chirurgin« gefragt. Die ersten dreihundert angezeigten Fotos hatten ausnahmslos operierende Männer mit helfenden Frauen. »Surgeon« unterliegt offensichtlich einem Bias. Erst bei der Suche »Weibliche Chirurgin« habe ich viele Fotos operierender Frauen erhalten. Diversity Programme zum Überwinden von bestehenden Diskriminierungenund beschränkenden Klischees, die durch den Einsatz von KI verstärkt werden, sind von zunehmender Bedeutung.
Mehr digital braucht mehr menschlich
Die Zukunft von uns denkenden Menschen liegt jenseits der Denktrampelpfade. Denn alles, was standardisiert ist, kann auch leicht digitalisiert werden. Das heißt KI braucht mehr Hausverstand. Von zunehmender Bedeutung sind Fähigkeiten, um Neuland zu beschreiten. Dazu zählen Kreativität, Vorstellungskraft, Pioniergeist, Mut zu Entscheidungen und zum Improvisieren. Das können wir nur auf dem Nährboden einer guten Fehlerkultur. Denn Perfektionismus killt Innovation. KI-Systeme sind (noch) »Fachidioten«. Das Verknüpfen außergewöhnlicher Kombinationen von Fakten und Fähigkeiten bleibt daher bis auf Weiteres uns Menschen überlassen. Wir brauchen wieder mehr Generalisten, die Themen in kreativer Weise verbinden. Von entscheidender Bedeutung ist das kritische Denken, um einerseits nicht in die Fallen der Biases, Fake News und halluzinierenden KI-Systeme zu tappen. Da viele der derzeitigen Beziehungen durch KI-Interaktionen ersetzt werden, erfordern die verbliebenen menschlichen Beziehungen eine bewusstere Gestaltung und daher auch mehr Social Skills.
Mehr digital ermöglicht mehr menschlich
Meine Vision für meine zukünftigen betagten Tage: Ich hätte gerne, dass mich menschliche Hände berühren und mir menschliche Augen ins Gesicht schauen. Mein Gewicht darf gerne ein Roboter in Form eines Exoskeletts tragen. Mit künstlicher Intelligenz unterstützt er genau jene Muskeln, die zum Heben von Lasten benötigt werden. Ich wünsche mir Exoskelette auch im übertragenen Sinne: Künstliche Intelligenz soll Menschen vieles abnehmen und erleichtern, damit Menschen dann mehr Zeit dafür haben, was wir Menschen besonders gut können: Als Mensch für Menschen da sein.







