Kaum arbeiteten um 1950 die ersten „Elektronenhirne“, fragte der Mathematiker Alan Turing, ob Maschinen denken können. Bald formulierte er allerdings seine Frage um: Können Maschinen dem Menschen vortäuschen, ein Mensch zu sein? Die Idee des Turingtests war geboren. Und ebenso der Begriff der künstlichen Intelligenz (KI).
1966 schuf der Informatiker Joseph Weizenbaum das Programm ELIZA, das im Dialog mit einem menschlichen Benutzer einen Psychotherapeuten mimte. Eine geschickte Wahl: Die Rolle des Therapeuten besteht nämlich darin, sein Gegenüber zum Reden zu bringen – und nicht darin, eigenes Wissen kundzugeben. Er greift Stichwörter auf und stellt dazu offene Fragen, etwa: „Erzählen Sie mir mehr über…“
Können Maschinen dem Menschen vortäuschen, ein Mensch zu sein?
Hat ELIZA den Turingtest bestanden? Etliche Versuchspersonen waren zumindest überzeugt, mit einem Menschen kommuniziert zu haben, und wollten nicht glauben, daß es ein Computerprogramm war. Therapeuten begannen darüber nachzudenken, mit solchen Softwarelösungen die oft sehr zeitaufwendige Psychotherapie zu automatisieren. Diese Reaktionen erschütterten Weizenbaum so sehr, daß er zum Kritiker von gedankenloser Computergläubigkeit wurde. Die letzte Entscheidungsgewalt im Umgang mit intelligenten Systemen müsse immer in der Hand des Menschen bleiben.
Haben wir seine Botschaft gehört? Heute bevölkern Chatbots die sozialen Netzwerke und beeinflussen dort gezielt Meinung oder Stimmung, ohne daß die Teilnehmer es bemerken. Künstliche Intelligenzen treffen Entscheidungen, die der Mensch allzu gern kritiklos übernimmt – oft weil ihn die Komplexität der Dinge überfordert, eigene Entscheidungen zu treffen. Getrieben von der Faszination für das, was alles möglich ist, tun wir das Mögliche – und arbeiten damit möglicherweise auf eine Art „Diktatur der Technik“ (Weizenbaum) zu. Ich denke allerdings nicht, daß eine bösartige künstliche Intelligenz versuchen wird, die Herrschaft über den Menschen zu übernehmen. Ich sehe vielmehr die Möglichkeit, daß wir vor allem aus Bequemlichkeit dazu neigen, uns der künstlichen Intelligenz unterwerfen.
ELIZAs moderne Nachfolger
Derzeit viel Aufsehen erregt ein Chatbot namens ChatGPT, und damit einhergehend auch GPT-3, die erstaunlich leistungsfähige künstliche Intelligenz, die unter der „Motorhaube“ von ChatGPT steckt. Schulen und Hochschulen sind alarmiert: Lassen sich Haus- und Abschlußarbeiten nun automatisiert erstellen – nicht selbst geschrieben, und doch kein Plagiat? Wie kann man solchen Schummel erkennen?
In der Tat hat GPT-3 letztes Jahr eine überzeugende wissenschaftliche Arbeit über sich selbst geschrieben, die – mit Genehmigung des „Autors“ – im Internet unter dem wissenschaftlichen Suchbegriff „GPT-3 et al. 2022“ auf einem Server mit dem beziehungsreichen Namen HAL öffentlich zu finden ist. „Et al.“ bedeutet in der Wissenschaftswelt „und Kollegen“. Die menschlichen Kollegen im Team, die „Mitautoren“, lassen in dem Papier den maschinengenerierten Text des „Hauptautors“ für sich und unverändert stehen, ergänzen aber noch kleingedruckte Hintergrundinformationen, beispielsweise mit welchen Fragen sie GPT-3 zum Schreiben gebracht haben.
Ich habe es mir nicht entgehen lassen, ChatGPT selber auszuprobieren. Hier ein Dialogbeispiel:
Mensch: Bist du ein Nachfolger von ELIZA?
Maschine: ELIZA ist ein frühes Beispiel für ein computerbasiertes Programm, das in der Linguistik und Künstlichen Intelligenz entwickelt wurde. Es war ein einfaches Programm, das auf der Grundlage von Schlagworten und Mustern in Texten Fragen zu beantworten versuchte. Es wurde in den 1960er Jahren entwickelt und gilt als eines der ersten Beispiele für ein computerbasiertes Gesprächssystem.
Ich bin ein modernes Beispiel für ein KI-Modell, basierend auf der Technologie des maschinellen Lernens und der natürlichen Sprachverarbeitung, und ich habe viel fortgeschrittenere Fähigkeiten als ELIZA, wie z.B. die Verstehen von natürlicher Sprache, die Fähigkeit, komplexe Fragen zu beantworten, und die Möglichkeit, auf Basis von Erfahrungen zu lernen. Ich bin ein Nachfolger von ELIZA in dem Sinne, dass ich auch ein computerbasiertes Gesprächssystem bin, aber ich bin viel fortschrittlicher und leistungsfähiger durch die Verwendung der neuesten Technologien und Methoden der KI.
Das klingt doch schon ganz beeindruckend, oder?
Therapeutische Hilfe vom Chatbot
Als Nachkomme von ELIZA gibt GPT-3 auch therapeutische Hilfe – und wirft Fragen auf: Können Maschinen Empathie entwickeln? Und gibt’s da nicht ethische Bedenken? Im Januar titelte Heise online: „Experiment ohne Einwilligung: Menschen suchen Hilfe – und landen bei einer KI.“
Ganz so war es nicht. Es geht um die Plattform Koko, deren Benutzer – therapeutische Laien – sich gegenseitig psychologisch unterstützen können („Peer-Support“). Dort nutzte man eine Zeitlang GPT-3, um dem ratgebenden Benutzer eine Antwort für den ratsuchenden Benutzer vorzuschlagen. Der Ratgeber konnte entscheiden, ob er den KI-Vorschlag unbearbeitet oder bearbeitet abschickt, oder ob er eine eigene Antwort schreibt. Koko informierte seine Benutzer davon, daß eine KI im Spiel ist. Wie weit das die Ratsuchenden wirklich erfuhren, bleibt offen. Für wissenschaftliche Experimente mit psychisch Notleidenden gibt es aus gutem Grund scharfe Ethikregeln, die Koko allerdings nicht eingehalten hat, weil man es nicht als wissenschaftliches Experiment begriff, sondern als Softwaretest.
Dennoch gibt es lehrreiche Erkenntnisse zu diesem sensiblen Thema. Koko-Chef Rob Morris berichtet, daß die Ratgeber begeistert von den Antwortvorschlägen waren und kürzere Antwortzeiten erzielten. Auch die Ratsuchenden bewerteten die KI-Antworten höher als die von Menschen geschriebenen. Sobald sie jedoch erfuhren, daß die Antworten von einer Maschine stammten, funktionierte es nicht mehr. Koko beendete den Versuch nach einigen Tagen, nachdem ihnen auffiel, daß die KI-Antworten zwar gut geschrieben, aber irgendwie hölzern und formelhaft waren – eben ohne menschliche Authentizität und Lebendigkeit. Antworten von Menschen „fühlten sich irgendwie besser an“, so Morris.
Können Maschinen Empathie entwickeln?
Diese widersprüchlichen Erkenntnisse haben ihren Grund: Maschinen können keine Empathie empfinden, also sich in einen anderen Menschen hineinversetzen, weil sie keine Menschen sind. Man kann beobachten, wie sich ein empathischer Mensch einem anderen gegenüber verhält. Dieses Verhalten läßt sich auch maschinell simulieren. Doch es ist nicht echt. Es ist im Grunde ein Betrug, eine Täuschung, wie sie schon dem Turingtest zugrunde liegt. Menschen wissen das und erwarten auch keine Empathie von Maschinen. Wenn mir irgendwo ein „Herzlich willkommen“ von einem Display entgegenflimmert, ist das für mich bestenfalls eine Floskel, aber nichts „Herzliches“ im Sinne von: das Herz Berührendes.
Deutlich wird das Problem am Beispiel, das der Koko-Chef in einem Video präsentiert. Ein ratsuchender Benutzer will ein besserer Mensch werden, tut sich damit aber schwer. Als Antwort bietet Koko einen ganzen Schwall von Empathie-Gesülze an – ich kann es leider nicht anders nennen. Nun ja, zugegeben, ein Psychologiestudium und jahrelange Coachingerfahrungen haben ihre Spuren in mir hinterlassen…


Ja, es ist schon richtig, zunächst ein mitfühlendes Signal zu senden. Aber kurz. Ich würde vielleicht spontan etwas sagen wie: „Du wirkst frustriert.“ Doch dann sind Zuhören und offenes Fragen dran, um dem Gegenüber die Möglichkeit zu geben, sich den Frust von der Seele zu reden. Etwa: „Womit kämpfst du gerade?“ „Was hast du versucht?“ „Woran ist es gescheitert?“ Und immer wieder mal: „Wie geht es dir damit?“ So entsteht ein Dialog, der einerseits den Emotionen Raum gibt und andererseits hilft, den Kern des Problems zu finden – und damit auch eine Lösung. Therapeutisch unerfahrene Menschen neigen oft dazu, zu früh Ratschläge zu geben – die dann allzu leicht zu Rat-Schlägen werden. Das mag ein Grund sein, warum Ratsuchende die maschinellen Koko-Antworten zunächst höher bewerteten.
Kann simulierte Empathie helfen?
Gerade im von chronischem Fachkräftemangel geplagten Bereich der psychischen Gesundheit erscheint der Einsatz unterstützender KI attraktiv. Es gibt ernsthafte Forschung in diesem Gebiet, vor allem zur Unterstützung von therapeutischen Fachkräften. Doch es bleiben ungeklärte ethische und juristische Fragen.
Noch heikler ist der eigentlich begrüßenswerte, weil niederschwellige Ansatz des „Peer-Supports“. In unserer westlichen Leistungsgesellschaft sind Schwäche und Leiden, gerade auf psychischer Ebene, stark stigmatisiert: Ich gehe nicht zum Psychiater, ich bin doch nicht verrückt. Oder: Ich rede doch nicht meinem Chef über meine Psycho-Kisten. Oft ist schon das Gespräch mit einem anderen Menschen auf Augenhöhe hilfreich. Doch manchmal braucht es fachkundige Hilfe, um Schlimmeres zu verhindern. Wie lassen sich beide Fälle unterscheiden? Könnte eine „fachkundige“ KI das leisten?
Ich rede doch nicht mit meinem Chef über meine Psycho-Kisten
Digitale Angebote, in die sich eine KI einschalten kann, sind sinnvoll, wenn wir überwiegend mit Leuten kommunizieren, die woanders sind. Doch was hilft im direkten Gespräch von Mensch zu Mensch (soziale Unterstützung) – beispielsweise auch im Unternehmenskontext unter (gleichrangigen) Kollegen? Vor allem: Zuhören. Dem Gegenüber Raum geben, sich seinen Kummer von der Seele reden zu können. Das hat Seltenheitswert in einer Welt, in der es jede Menge Rhetorikseminare gibt, aber keine Zuhörseminare. Was ist noch nötig? Geduld. Die Spannung zu ertragen, daß jemand leidet, und man nicht sofort helfen kann. Eine zu schnelle Erwiderung, ein zu eilig gegebener Rat drückt den ganzen Frust, der gerade rauskommen will, wieder zurück. Konnte sich dagegen jemand den Frust von der Seele reden, ist er oft schon selbst in der Lage, eine Lösung für sein Problem zu finden.
Vor allem introvertierte Menschen sind stark im geduldigen Zuhören – deshalb dürfen wir die wichtige Diversitätsdimension extrovertiert/introvertiert keinesfalls unterschätzen. Es liegt auf der Hand: Eine Führungskraft, die Dinge in Gang bringen und Treiber sein soll, ist idealerweise eher extrovertiert. Doch tut sie sich wahrscheinlich schwer mit der Rolle des geduldigen Ansprechpartners für psychisch belastete Mitarbeiter. Das wäre eher etwas für Introvertierte, für die Stillen im Team, die man allzu leicht für „Minderleister“ hält, weil sie in den Meetings nicht viel sagen. Schon mit einer sehr grundlegenden Schulung (an der informationshalber auch die Führungskräfte teilnehmen sollten) kann man sie zurüsten, bei Bedarf geduldige Zuhörer zu sein.
Feelgood Management: Fokus auf den Menschen
Ein zentrales Arbeitsfeld des Feelgood Managements ist es, die Kommunikation im Unternehmen zu fördern. In Zeiten, da wir alles und jedes digitalisieren, liegt es nahe, das durch Kommunikationstools zu erreichen. Sie haben sicher ihren Anwendungsbereich, und in manche von ihnen – in die zeitlich entkoppelten – lassen sich vielleicht auch künstliche Intelligenzen einschleifen. Doch wo immer es möglich ist, sollten wir die direkte Kommunikation von Angesicht zu Angesicht bevorzugen. Denn sie ist am effektivsten.
„Alles wirkliche Leben ist Begegnung.“
Martin Buber
Hier hilft keine Plastik-Empathie und keine Plastik-Wertschätzung – hier kommt es ganz auf die Authentizität des Menschen an. Ihn selbst – und nicht eine künstliche Intelligenz – gilt es, entsprechend zu trainieren. Wie oben gesagt: Schon eine Einführung in die einfachsten Grundlagen von Empathie und Wertschätzung wäre ein guter Anfang. Nicht jeder wird nach solch einer Schulung echte Empathie entwickeln oder echte Wertschätzung vermitteln können. Aber denen, die es können (und wollen), sollte man entsprechende Aufgaben oder Rollen im Unternehmen anvertrauen.
Die – allzu verständliche – Faszination der digitalen Errungenschaften verführt dazu, auch genuin menschliche Fähigkeiten zu digitalisieren. Doch wenn der Mensch sie nicht nutzt, verliert er sie. „Use it, or you lose it“, sagen die Engländer. Dabei brauchen die Herausforderungen unserer Zeit mehr denn je den echten Menschen. Ihn zu stärken und zu ermächtigen, sollte deshalb der Fokus des Feelgood Managements bleiben.
Ungeachtet dessen gibt es wirklich sinnvolle Ideen, künstliche Intelligenz unterstützend anzuwenden. Ein richtig gutes Beispiel fand ich während der Recherchen zu diesem Artikel: Die Caritas entwickelt für ihre Berater gerade ein KI-gestütztes System, das Wissen und Wissensträger einer großen Institution miteinander vernetzt. Dabei lernt es quasi „nebenbei“ das Wissen der Berater und macht es ihnen wiederum verfügbar – und das ohne unnötige Mehrarbeit für die Berater. Geniale Idee.