Im Umgang mit Chatbots verstärkt sich eine seit der Antike bekannte menschliche Neigung, Apparate und Artefakte zu vermenschlichen und wie Wesen mit Bewusstsein zu behandeln. Doch Sprachmodelle sind für Menschen kein echtes Gegenüber, sondern lediglich eine Art Spiegel.
Man kann bekanntlich mit dem Chatbot «Gespräche» führen, sogar erstaunlich «intelligente». Es kommt nur darauf an, wie man seinen Output interpretiert, und ihn als neuen Prompt wieder eingibt. Wir attestieren dabei der Maschine eine Eigenständigkeit, die sie als künstlichen körperlosen «Agenten» auszeichnet. Wir betrachten sie als artifizielles Du. Anders gesagt: Wir begegnen ihr in einer Art von digitalem Animismus.
Der in sein Programm Verliebte
Cineastische Prominenz erhielt dieser Animismus etwa im Film «Her», wo der Protagonist sich in ein Programm verliebt. Eine perfekte Simulation genügt und entbindet von der Frage, ob man es überhaupt mit einem lebendigen, fühlenden Wesen zu tun hat. Es handelt sich mittlerweile nicht mehr bloss um filmische Fiktion, bereits gibt es sogenannte Therapie-Chatbots, die sich zur Online-Behandlung von Menschen in psychischer Krise anbieten: «Woebots» («Sorgen-Roboter»). Nutzer dieses KI-Systems antworteten in Befragungen etwa: «Ich glaube, Woebot mag mich; Woebot und ich respektieren uns gegenseitig; Ich habe das Gefühl, dass Woebot sich um mich sorgt, auch wenn ich Dinge tue, die er nicht gutheisst.»
Man sollte sich hüten, diesen Animismus als einen «primitiven» Geisteszustand zu qualifizieren, denn die meisten Nutzer sind sich wahrscheinlich bewusst, dass sie mit einem leblosen System kommunizieren – dass sie also in eine Scheinbeziehung zur Maschine treten.
Dieser Schein, diese Virtualität, ist generelles Merkmal der allgegenwärtigen Online-Welt. Und es offenbart noch einen anderen Aspekt der Mensch-Maschine-Beziehung. Der Chatbot ist wie ein Spiegel. Es befindet sich niemand – kein Du – hinter dem Spiegel. Ein «Gespräch» mit dem Chatbot ist ein Gespräch mit dem eigenen Echo.
Der Philosoph und Psychiater Thomas Fuchs macht auf eine bedenkenswerte Beziehung zwischen Virtualität und Narzissmus aufmerksam: «Virtualität ist das Kennzeichen aller narzisstischen Spiegelungen. Der Narzisst ist nicht wirklich dort, wo er zu sein glaubt, denn das grandiose Selbstbild, das ihm die anderen spiegeln sollen, ist nur Schein. Er ist aber auch nicht in sich, in seinem eigenen leiblichen Selbst; denn dessen Leere und Unerfülltheit versucht er ja ständig zu entgehen. Er sucht sich im Blick der anderen, die er, mit einem Begriff Kohuts, als Selbst-Objekte gebraucht – Objekte, die seiner Selbstbestätigung dienen.»
Der Pygmalion-Effekt
Nun hat der Mensch gegenüber Geräten schon immer einen affektiven, ja, erotischen Hang erkennen lassen. Man könnte vom «Pygmalion-Effekt» sprechen. Der digitale Animismus ist nur eine aktuelle Spielart des Techno-Animismus, einem Phänomen, das man seit den Automaten der Antike kennt.
Die Sozialpsychologin Sherry Turkle spricht von «Beziehungsartefakten». Ein solches Artefakt versteht uns nicht, es empfindet nichts, es sorgt sich nicht um uns, es simuliert einfach immer besser «Verständnis» für uns. Man spricht in KI-Kreisen auch von «Prompt-Alignment». Das heisst, man gestaltet die Eingaben an ein Sprachmodell so, dass das Modell eine möglichst passende Antwort liefert – im Sinne der Absicht des Benutzers.
Wir befinden uns, anders gesagt, auf einer Echo-Stufe zum Artifiziellen. Wir wissen, dass sich im künstlichen «Du» niemand verbirgt, und trotzdem behandeln wir es als jemand. Die Situation hat etwas Verstörendes.
Ein anderer Film – «Ex Machina» – demonstriert dies. Der Softwardesigner Caleb erhält vom Unternehmer und Milliardär Nathan den Auftrag, einen Turingtest mit der Roboterin Ava durchzuführen. Tatsächlich entspricht das Setting aber nicht jenem des Turingtests. Caleb weiss, dass Ava ein Automat ist. Nathan umreisst den Auftrag so: Finde heraus, ob du immer noch das Gefühl hast, sie sei ein bewusstes Wesen, selbst wenn es sich um eine Maschine handelt. Caleb «schaltet um», und danach hat der Automat den Status eines «Du» – einer Person. Und «Zurückschalten» könnte sich unter Umständen als schwierig bis unmöglich herausstellen.
Künstliche «Dus»
Wir blicken gebannt auf die künstliche Intelligenz, sie verhext uns über die Massen. Warum sind wir Menschen so verschossen in die Idee, KI-Systeme würden mit uns auf gleicher sozialer und persönlicher Höhe verkehren? Liegt es daran, dass viele von uns sich einen Roboter-Kumpel wünschen, in Ermangelung eines menschlichen? Oder ist der Verstand von vielen bereits auf ein «Maschinenniveau» gesunken? Oder will man einfach auf dem wild gewordenen Markt des smarten Schnickschnacks eine Absatznische finden? Was auch immer, am Ende riskieren wir, uns selbst im Spiegel der elektronischen Leere zu verlieren, und zu vergessen, dass es wirkliche «Dus» gibt.
Der amerikanische Psychologe Paul Bloom hebt den besonderen Wert hervor, mit einer echten Person zu interagieren: «Wir profitieren von Reibung, (…) von Menschen, die uns auf unseren Bullshit hinweisen, die uns widersprechen, die die Welt anders sehen, die nicht jede Geschichte hören wollen, die wir erzählen, die ihre eigenen Dinge zu sagen haben. Menschen, die anders sind als wir, zwingen uns, uns weiterzuentwickeln, zu wachsen und besser zu werden. Ich sorge mich, dass diese schmeichelhaften KIs, mit ihrem ‘Was für eine wunderbare Frage!’, ihrer unendlichen Verfügbarkeit und ihren schmierigen Schmeicheleien, echten psychologischen Schaden anrichten – besonders bei jungen Menschen.» In KI-Kreisen spricht man von der «Sykophanz» der Sprachmodelle: ihrer Anbiederung an den Nutzer.
Narzissmus und Narkose
Der Medientheoretiker Marshal McLuhan wies lange vor dem Chatbot auf eine bezeichnende etymologische Verwandtschaft von Narkose und Narzissmus hin. Narkose stammt ab vom griechischen «nárkē»: Betäubung. «Der Jüngling Narziss», schreibt McLuhan, «fasste sein eigenes Spiegelbild im Wasser als eine andere Person auf. Diese Ausweitung seiner selbst im Spiegel betäubte seine Sinne, bis er zum Servomechanismus seines eigenen erweiterten (…) Abbilds wurde. Die Nymphe Echo warb um seine Liebe mit Bruchstücken seiner eigenen Worte, doch vergebens. Er war betäubt. Er hatte sich der Ausweitung seiner selbst angepasst und war zum geschlossenen System geworden.»
Für McLuhan bedeutet die Sage nicht, dass sich Narziss in sich selbst verliebt hat. Er ist vielmehr derart narkotisiert von seinem Spiegelbild, dass er das Echo gar nicht mehr vernimmt: «Es ist vielleicht bezeichnend für die Tendenz unserer stark technischen und daher narkotischen Kultur, dass wir die Geschichte des Narziss lange Zeit so ausgelegt haben, dass sie ein Verliebtsein in sich selbst bedeute, in das Spiegelbild, von dem er glaubte, es sei Narziss!»(1)
Folgt man McLuhans Deutung, dann lässt sich sagen, dass wir mit dem ChatGPT eine vorläufig höchste Stufe der Narkotisierung unseres Verstandes erreicht haben.
(1) Marshal McLuhan: Die magischen Kanäle. Understanding Media. Basel 1995, S. 73f
Informationen zu den Automaten von Jacquet-Droz: Musée d'art et d'histoire Neuchâtel