Ein Narrativ beherrscht die KI-Branche. Es zeichnet die unaufhaltsame Entwicklung der smarten Maschinen von einer allgemeinen künstlichen Intelligenz (AGI: Artificial General Intelligence) zur künstlichen Superintelligenz, als verwirkliche sich darin eine Art von technologischem Weltgeist à la Hegel.
Zentral ist dabei ein Paradox: Die KI gefährdet die Menschheit, aber nur ihre Weiterentwicklung rettet sie auch. Sam Altman von OpenAI spielt diese Rolle von Prophet und Warner mit meisterhaftem Opportunismus. Er wird nicht müde, zu betonen, wie wichtig ihm Sicherheitsforschung sei, insistiert aber gleichzeitig auf der Notwendigkeit, die Entwicklung der KI-Systeme voranzutreiben.
Auf einer Konferenz 2015 sagte er: «KI wird sehr wahrscheinlich zum Ende der Welt führen, aber in der Zwischenzeit wird es viele grossartige Unternehmen geben.» Apokalypse als Geschäftsmodell. Wenn die Superintelligenz zugleich Fortschritt und Untergang ist, dann muss auch das Unternehmen, das sie baut, zugleich agressiv und umsichtig, profitorientiert und altruistisch, verschwiegen und transparent sein.
Dieses Paradox hat Methode. Im gleichen Zug, in dem die «Techno-Doomer» ihre hypothetischen Katastrophenszenarien ins Zentrum des öffentlichen Diskurses rücken, verschaffen sie sich eine ethische – oft fast priesterliche – Leitposition. Sie stilisieren sich zu Hütern der Humanität, beladen mit der Last eines titanischen Auftrags – nämlich eine gottähnliche Intelligenz zu zähmen, die sie geschaffen haben. Sie inszenieren sich als unentbehrliche Vermittler zwischen der Zivilisation und ihren potenziellen Zerstörern. Eine Rolle, die – welch ein Zufall! – massives Kapital, minimale Regulation und oligarchische Entscheidungsmacht erfordert.
Das Narrativ lenkt ab
Das Narrativ der Superintelligenz erfüllt eine klare politische Funktion. Es lenkt ab. Es erzählt von imaginierten Risiken und Gefahren künftiger smarter Maschinen. Es lässt uns darüber debattieren, ob KI-Systeme uns dereinst erlösen oder eliminieren werden –, statt darüber, wie KI-Unternehmen heute Arbeitskräfte ausbeuten; wie sie die Ressourcen Strom und Wasser verbrauchen; wie KI-Systeme alte Kulturtechniken erodieren lassen; wie KI-gesteuerte Waffen zunehmend den Charakter von Kriegen bestimmen; oder wie autoritäre Regimes KI-Systeme zur Überwachung der Bevölkerung benutzen.
Schon das Wort «künstliche Intelligenz» trägt zur Mystifizierung bei. Ein menschlicher Begriff wird auf Maschinen übertragen und dann interpretieren wir deren Algorithmen als eine übermenschliche Macht, die uns unvermeidlich übertreffen und dominieren wird. Dabei sind es Menschen, die diese Entwicklung vorantreiben und ihr grösstes Interesse daran haben, sie als alternativlos darzustellen.
Denn selbstverständlich suchen die Technounternehmen neben ihrem alarmistischen Gedöns den Profit. Um ihn dreht sich im Grunde alles. Das Narrativ der Superintelligenz hat immense finanzielle Implikationen. Es legitimiert letztlich astronomische Investitionen in Startups, die noch keinen Nachweis ihrer Rentabilität erbracht haben. Wichtig ist, den Dopaminpegel von Risikokapitalisten zu heben. Wenn man mit dem «eschatologischen» Anspruch auftritt, sozusagen die letzte Erfindung der Menschheit zu bauen, dann ist die Frage, wieviele Milliarden dafür notwendig sind, ziemlich profan.
Das Narrativ treibt in eine paranoide Logik
Das Narrativ der Superintelligenz verschärft eine gefährliche Dynamik. Der Wettlauf zur höchsten Intelligenz ist ein Wettlauf zur tiefsten Verantwortlichkeit. Jedes Unternehmen, das sich an diesem Wettlauf beteiligt, rechtfertigt die Beschleunigung der Entwicklung mit dem Hinweis, Verantwortung sei eine Bremserin – nur wer sich von ihr nicht dreinreden lasse, mache den «pace». Wenn wir nicht die KI-Forschung vorantreiben, tun es andere – vor allem die Chinesen. Im Hintergrund lauert immer das Phantom des unbekannten Akteurs, der den nächsten Durchbruch erzielen könnte. Von dieser paranoiden Logik ist der ganze KI-Exzess infiziert. Und er pervertiert in geradezu orwellscher Manier den Sprachgebrauch: Voranpreschen bedeutet Sicherheit; Vorsicht bedeutet Risiko; der Wohlstand weniger bedeutet den Wohlstand aller; Freiheit bedeutet, seine Entscheidungen Algorithmen zu übergeben.
Das Narrativ «verhext»
Wenn schon vom Sprachgebrauch die Rede ist: Ludwig Wittgenstein warnte uns vor der «Verhexung unseres Verstandes durch die Mittel der Sprache». Genau dies leistet das Narrativ der Superintelligenz. Es verhext uns mit der Illusion der Unvermeidlichkeit, indem es spekulativen Szenarien durch ständige Wiederholung das Gewicht des Schicksalhaften verleiht. Das Ziel ist, uns das Fragen auszutreiben, wer die KI-Systeme bauen sollte – und ob man sie überhaupt bauen sollte. There is no alternative.
Dadurch wird das demokratische Defizit im Zentrum des Narrativs offenkundig. Es zeichnet KI als ein «arkanes» technisches Projekt: geheim, exklusiv, dem gewöhnliche Menschen unverständlich. Wird dieses Projekt gleichzeitig als unhinterfragbarer Motor sozialen Fortschritts präsentiert, erlaubt dies, Autorität in den Händen jener zu konzentrieren, welche die KI-Systeme besitzen und entwickeln. Ihre Macht ist feudaler Natur: eine kleine technologische und wirtschaftliche Elite verfügt über Entscheidungsgewalt, legitimiert durch besondere Expertise und die imaginierte Dringlichkeit existenzieller Risiken – während Bürgerinnen und Bürger zu hören bekommen, sie könnten die technischen Komplexitäten nicht begreifen und eine Verlangsamung der Entwicklung im globalen Wettbewerb sei unverantwortlich. Das Ergebnis ist erlernte Hilflosigkeit – das Gefühl, dass technologische Zukünfte nicht demokratisch gestaltet werden können, sondern visionären Ingenieuren anvertraut werden müssen.
Die Dringlichkeit eines Gegen-Narrativs
Michel Foucault hat uns im historischen Detail vorgeführt, wie bestimmte Narrative – oder Diskurse – Macht ausüben können, indem sie festlegen, was sag- und fragbar ist. Das Narrativ der Superintelligenz legt unseren Blick fest mit der Frage: Was wird die KI aus uns machen? Wir müssen aber die Gegenfrage stellen: Wer erzählt uns eigentlich diese Geschichte – und zu wessen Nutzen? Wir müssen den Bann des Narrativs als eines «Verhexers» brechen – die Dramaturgen hinter der Dramaturgie erkennen. Damit öffnen wir im gleichen Zug den Blick auf jene Zukunftsmöglichkeiten, die durch das Gewicht vermeintlicher Notwendigkeit verdrängt worden sind. Statt uns erzählen zu lassen, wohin die Entwicklung zwangsläufig führe, gewinnen wir den Mut zur Gestaltung.
Es gibt zahlreiche Gegen-Narrative. Ein besonders instruktives stammt von der australischen Medienwissenschaftlerin Kate Crawford: Der «Atlas der KI» (deutsch 2024). Sie weist – wie der Untertitel angibt – auf die «materielle Wahrheit» hinter den Datenimperien hin. Mit «materiell» meint sie die stofflichen Ressourcen, auf die die ganze Technologie angewiesen ist und um die ein beispielloser globaler Ausbeutungskampf tobt. Mit «materiell» rückt sie aber auch die Lebensformen ins Visier, in denen die Menschen immer mehr von digitalen Helfern abhängen. Es handelt sich nicht um «schicksalshafte» Notwendigkeiten, sondern um solche, die von Menschen anderen Menschen aufgezwungen werden.
Imagination ist die Mutter der Freiheit
Aufs Ganze gesehen verstärken diese Gegen-Narrative die Intelligenzform, die uns auszeichnet: den Möglichkeitssinn, wie ihn Robert Musil nannte – das Denken, dass das, was ist, auch anders sein könnte. Der Möglichkeitssinn ist der politische Sinn par excellence. Er beflügelt die Imagination. Und die Imagination ist die Mutter der Freiheit. Das Narrativ der Superintelligenz treibt sie uns aus. Als apokalyptischste aller Visionen erweist sich deshalb jene, in der wir Menschen die Imagination verloren haben – und sie nicht einmal mehr vermissen.