Liebe den Roboter wie dich selbst

Eduard Kaeser's picture

Liebe den Roboter wie dich selbst

Von Eduard Kaeser, 07.07.2019

Das Frankenstein-Problem der Künstlichen Intelligenz

Frankensteins Monster ist eine der dankbarsten Fiktionen der Moderne. Von Mary Shelley zu Beginn des 19. Jahrhunderts erfunden, belächeln wir das Monster heute eher als ein romantisches Aufbegehren gegen den technisch-wissenschaftlichen Fortschritt, als frühe schwarze Science Fiction. Wir schauen aus avancierter Entwicklungshöhe auf dieses zusammengeschnipselte Leichenteilpatchwork herab und bestenfalls befällt uns noch ein überlegenes Wohlgruseln.

Und dennoch, wenn sich auch technisch ungeheuer viel verändert hat, ist thematisch nahezu alles gleich geblieben. Mary Shelley war eine geniale Rutengängerin versteckter Adern in der Wissenschaftsgeschichte. Sie ahnte, dass der Mensch in der Erschaffung künstlichen Lebens auf eine numinose psychische Mine trifft, die sein Selbstverständnis tief umkrempeln würde. Für ihren fiktiven Wissenschaftler Viktor Frankenstein waren Elektrizität und Biochemie der Schlüssel zum künstlichen Leben. Für die modernen Frankensteins in den Labors der Künstlichen Intelligenz (KI) sind dieser Schlüssel elektrische Schaltkreise und Algorithmik. Sie doktern an cleveren Programmen, so clever, dass sie den Programmierern über den Kopf wachsen. Womöglich entsteigt das neue Monster eines Tages wie ein Geist der Maschine – um seine Erfinder, ja, die ganze Menschheit zu zerstören.

                                                 ***

Das ist das Substrat, auf dem Horrorszenarien wuchern. Ist die Angst begründet? Zunächst lässt sich sagen, dass sich bereits bei Frankensteins Kreatur durchaus Züge der neuesten künstlich intelligenten Systeme, des Deep Learning, finden: 1) die Fähigkeit, visuelle und sprachliche Muster zu erkennen; 2) Sprachen zu übersetzen; 3) Handschriften zu lesen; 4) strategische Spiele zu spielen, 5) seine Prothesen autonom zu steuern. Anders als Viktor Frankenstein bauen die Computer­ingenieure Artefakte, die das, was wir unter Menschen Leben und Intelligenz nennen, auf computerspezifische Weise simulieren. Diese Simulationen werden auf vielen Gebieten zweifellos immer lebensnäher. Aber lebensnah heisst nicht lebend. Zugegeben, wer hat sich nicht schon des Eindrucks erwehren müssen, bei den synthetisierten Antworten von Bots handle es sich um Antworten einer lebenden Person – trotz der CAPTCHA-Vorsichtsmassnahme.

Aber warum sollte ein „Personoid“ – eine künstliche Person – etwas Bedrohliches darstellen? Die Frage wirft ein Problem der gegenwärtigen KI auf, dessen Wichtigkeit im Grunde heute noch den wenigsten bewusst ist. Mary Shelley hatte es erkannt. Das Bedrohliche liegt nicht im Artefakt, sondern im Erbauer des Artefakts.

                                                   ***

Ende der 1990er Jahre sorgte die Kreatur Kismet der Robotikerin Cynthia Breazeal am Massachusets Institute of Technology (MIT) für einiges Aufsehen. Kismet ist ausgestattet mit einem recht ausgetüftelten Innenleben, bestehend aus Modulen für Sensorik, Aufmerksamkeit, „Motivation“, Motorik von Gesichtsausdrücken, Haltung, Kopf- und Augenorientierung, sowie von stimmlichen Äusserungen. Kismets Verhaltensmodule sind auf den sozialen Kontakt mit Menschen hin entworfen, sie sind lernfähig im Umgang mit Menschen. Im Klartext: Kismet ist ein Maschinenkind. Man spricht auch vom „Nesthocker-Nestflüchter-Spektrum“ der Roboter („altricial-precocial spectrum“), also der Aussicht, dass die Roboterkinder einmal so weit sein werden, ihre „Eltern“ zu verlassen und zu vollwertigen Mitgliedern der Gesellschaft heranzureifen.

Und genau diese Aussicht ist es, die Mary Shelley tief verstörte. Versagen Eltern ihren Kindern die empathische Zuwendung, können sich Kinder zu Monstern entwickeln. Frankensteins Verfehlung liegt darin, dass er sein „Kind“ nicht akzeptiert, es ausstösst, allein lässt.

                                                 ***

Hier stossen wir auf ein Kernproblem der neuesten KI. Deren Entwicklung ist ja bereits so weit gediehen, dass man eine allgemeine KI (General Artificial Intelligence) ins Auge fasst. Sie würde nahezu alle Probleme lösen, die der Mensch löst. Im Besonderen sucht man zum Beispiel auch empathiefähige – „tugendhafte“ – Roboter zu konstruieren, die lernen, menschliche Gefühlslagen zu erkennen und darauf zu reagieren. Der Neurorobotiker Manfred Hild, der an einem solchen Roboter – Myon – arbeitet, sagt ausdrücklich: „Myon ist mein Kind.“

Dabei gehen die Roboterbauer von der Grundannahme aus, dass Intelligenz – speziell emotionale Intelligenz – sich nicht einfach als Modul in ein Artefakt einbauen lässt. Vielmehr entwickelt sie sich adaptiv in entsprechenden Umwelten. Intelligenz sitzt nicht im Hirn – sei es organisch oder anorganisch – , sondern ist externalisiert in sozialen und kulturellen Praktiken, in Sprache, Umgangs- und Argumentationsformen, in Kunst und Ritual. Die ganze menschliche Zvilisation erweist sich so gesehen als eine grosse künstliche Intelligenz. Und darin sitzen auch unsere Hirne.

Diese Zivilisation bewegt sich in Richtung einer Homo-Robo-Gesellschaft, einer Koevolution von Mensch und Maschine. Wir bekommen es im Roboterbau mit einer „pädagogischen“ Aufgabe zu tun. Maschinenlernen ist wesentlich exemplarisches Lernen. Das hat seine Tücken. Wir müssen unsere Trainingsexemplare zur „Zivilisierung“ des Roboters mit Bedacht auswählen. Man kennt Experimente, die ähnlich wie jenes von Frankenstein entgleisten – wenngleich harmloser. Vor einigen Jahren entwarf Microsoft einen Chatbot namens „Tay“. Er sollte die Gesprächsgewohnheiten junger Menschen lernen. Innerhalb von 24 Stunden entwickelte sich der Bot, geleitet von falschen Beispielen, zu einem Fiesling. Was er lernte, waren vor allem  rassistische, sexistische, antisemitische Äusserungen. Microsoft musste den „unerzogenen“ Tay aus dem Verkehr ziehen.

                                                   ***

Die Roboterbauer haben also ein Frankenstein-Problem: Sollen wir unsere künstlichen Nächsten lieben wie uns selbst? Shelleys Monster warnte uns: Ich werde böse, wenn du mich nicht zu deinesgleichen machst. Die Lektion Frankensteins müsste heute lauten: Hüten wir uns davor, dass die Roboter uns zu ihresgleichen machen. Das heisst, wir sind viel formbarer als die Maschinen, wir passen uns kontinuierlich den Kreationen der KI-Labors an, und schon heute moduliert sich nahezu in allen unseren Aktivitäten der Takt dieser Systeme unseren Verhaltensweisen und Gewohnheiten auf. Die Maschine lernt schnell und unglaublich viel aus menschlichen Voreingenommenheiten, Entscheidungen, Schwächen. Die tiefe Ironie ist dabei unverkennbar: Die Aussicht besteht, dass Roboter nicht menschenähnlicher, sondern Menschen roboterähnlicher werden. Die Technik, die der Mensch entwickelt, koppelt sich von ihm ab und nimmt ihn nun selbst als Peripheriegerät in Beschlag. Wenn der Mensch überleben will, muss er sich „upgraden“.

Soweit ist es noch nicht gekommen. Aber Shelleys Warnung erhält in dieser Perspektive eine höchst akute Bedeutung. Wenn künstliche Systemen allmählich das Menschsein lernen, dann sollten wir selbst dieses Menschsein nicht verlernen. Indem wir zunehmend smartere Systeme erfinden, arbeiten wir tendenziell unserer Ersetzung zu. Frankensteins Kreatur ist eine organische Lernmaschine mit übermenschlichen Fähigkeiten. Sie entspringt dem einäugigen Blick des Naturwissenschaftlers, der im Lebewesen nichts als einen materiellen Baukasten sieht. Und nicht wenige Roboterbauer rufen uns heute zu: Der Mensch ist ja selbst auch ein natürlicher, von der Evolution gebastelter Roboter, ein komplexes Aggregat aus neuronal kodierten Verhaltensmodulen. Wo soll denn der Unterschied zwischen ihm und einem synthetischen Roboter liegen?

                                                  ***

Genau diese Frage ist „monströs“: eine Warnung (lateinisch „monere“: warnen). Nicht eine Warnung vor den künstlich intelligenten Kreaturen, sondern vor einer Denkweise, die uns immer mehr zu beherrschen beginnt, und die Mensch und Maschine über einen Leisten schlägt. Was unser Denken in den nächsten Jahrzehnten intensiv beschäftigen muss, ist die Frage nach der menschlichen Autonomie, Urteilsfähigkeit, Entscheidungskraft, Kreativität, Subjektivität, Moralität im neuen Kontext der intelligenten Geräte. Lauter philosophische Fragen – Erbfragen der Aufklärung nota bene. Die Computerwissenschaften sind also philosophisch gefordert. Sie haben heute eine Schwelle erreicht, auf der sie wie Viktor Frankenstein im Begriff sind, ihre „Unschuld“ zu verlieren. Und sie tun gut daran, die Lektion Frankensteins schon vor der Erschaffung „eingebürgerter“ Maschinen zu lernen und nicht erst nachher.

Kommentare

Die Redaktion von Journal21.ch prüft alle Kommentare vor der Veröffentlichung. Ehrverletzende, rassistische oder anderweitig gegen geltendes Recht verstossende Äusserungen zu verbreiten, ist uns verboten. Da wir presserechtlich auch für Weblinks verantwortlich sind, löschen wir diese im Zweifelsfall. Unpubliziert bleiben ausserdem sämtliche Kommentare, die sich nicht konkret auf den Inhalt des entsprechenden Artikels oder eines bereits aufgeschalteten Leserkommentars beziehen. Im Interesse einer für die Leserschaft attraktiven, sachlichen und zivilisierten Diskussion lassen wir aggressive oder repetitive Statements nicht zu. Über Entscheide der Redaktion führen wir keine Korrespondenz.

SRF Archiv

Newsletter kostenlos abonnieren