Der Torment Nexus
Im November 2021 schrieb der Twitter-Nutzer Alex Blechman einen Witz, der seitdem als Standardkommentar über das Silicon Valley gilt:
„Sci-Fi-Autor:in: In meinem Buch habe ich den Torment Nexus als warnendes Beispiel erfunden.“
„Tech-Unternehmen: Endlich haben wir den Torment Nexus aus dem Klassiker Erschaffe nicht den Torment Nexus gebaut.“
Der Witz trifft, weil er keine Übertreibung ist. Er beschreibt ein Muster, das sich beunruhigend oft wiederholt: Tech-Milliardäre lesen dystopische Science-Fiction, überspringen die Warnung und bauen das Ding trotzdem. Mark Zuckerberg las Neal Stephensons Snow Crash – einen Roman über eine zerfallene Gesellschaft, die in eine konzerngesteuerte Virtual Reality flieht – und baute das Metaverse. Sam Altman sah offenbar Steven Spielbergs Minority Report – einen Film, in dem biometrische Netzhautscans totale Überwachung ermöglichen und Verbrechen bestraft werden, bevor sie geschehen – und baute eine chromglänzende Kugel, die deine Iris scannt, um dir eine Kryptowährung zu geben.
Diese Kugel heißt „Orb“. Das Unternehmen dahinter hieß Worldcoin, seit 2024 nur noch World. Und was wie ein bizarres Krypto-Gadget wirkt, ist weit beunruhigender: der Versuch, eine private, post-demokratische Identitäts- und Finanzinfrastruktur für die gesamte Menschheit zu errichten – legitimiert durch Fiktionen, die sich als Fakten tarnen.
Ein Paper von Andreu Belsunces Gonçalves und Laura Forlano, erschienen in AI & Society, seziert diesen Mechanismus. Ihre zentrale These: World funktioniert nicht trotz seiner fiktionalen Grundlage, sondern wegen ihr. Die Fiktionen sind keine Fehler im System. Sie sind das System.
I
World besteht aus drei Komponenten: World ID, eine digitale Identität per Iris-Scan. Worldcoin, eine Kryptowährung als Belohnung dafür. Und eine Wallet, in der beides liegt.
Das Versprechen klingt zunächst plausibel: In einer Welt, in der KI immer bessere Fälschungen produziert, Deepfakes erstellt und leicht Identitätsdiebstahl betreibt, brauchen wir einen Weg, um zu beweisen, dass wir Menschen sind. World nennt das „Proof of Personhood“: ein Algorithmus, der prüft, ob jemand menschlich und einzigartig ist.
Doch die Forscher:innen zeigen, dass dieses Versprechen auf einer Kette von Fiktionen beruht, die sich als technische Notwendigkeiten tarnen. Identitätsdiebstahl ist ein reales Problem – aber es begegnen ihm bereits Multi-Faktor-Authentifizierung, regulatorische Rahmenwerke und bestehende Verifizierungssysteme. Die Behauptung, dass nur ein privates biometrisches System die Lösung sein kann, ist keine technische Analyse. Es ist eine Geschichte. Eine sehr gut erzählte Geschichte, verpackt in die Sprache der Wissenschaft.
II
Belsunces und Forlano führen dafür den Begriff der „soziotechnischen Fiktionen“ ein. Das sind keine Romane oder Filme, sondern Imaginationen, die innerhalb von Wissenschaft und Technologie entstehen – aber nicht als Fiktion erkannt werden, weil technowissenschaftliche Legitimität sie schützt. Sie erscheinen als objektive Aussagen, als rationale Analysen, als technische Spezifikationen – obwohl sie auf spekulativen Annahmen beruhen, die niemand bewiesen hat.
Diese Fiktionen operieren auf vier Ebenen:
Epistemisch → Sie erzeugen Wissen über Probleme, die noch nicht existieren. Worlds White Paper beginnt nicht mit einem konkreten, realen Problem (wie Bitcoins White Paper, das auf die Finanzkrise 2008 reagierte), sondern mit einer spekulativen Zukunft, in der KI die Unterscheidung zwischen Bots und Menschen unmöglich macht. Das Problem wird erfunden, um die Lösung zu rechtfertigen.
Ästhetisch → Sie machen Science-Fiction-Vorstellungen greifbar. Der Orb sieht aus, als käme er direkt aus einem Spielberg-Film. Medien beschreiben ihn als „etwas aus einem Sci-Fi-Film“. Diese Ästhetik ist kein Zufall. Sie erzeugt das, was die Forscher:innen „Re-Enchantment“ nennen: eine Verzauberung, die den banalen Akt eines biometrischen Scans zum Ritual technologischer Transzendenz macht.
Affektiv → Sie erzeugen Emotionen, die spekulative Interventionen legitimieren. Hoffnung auf eine bessere Zukunft. Angst vor dem Ausschluss aus dem „Intelligence Age“. Dringlichkeit, jetzt zu handeln, bevor es zu spät ist. Die Existenzrisiko-Narrative rund um KI – „Wenn diese Technologie schiefgeht, kann sie ziemlich schiefgehen“, wie Altman vor dem US-Senat warnte – schaffen ein Klima, in dem Kritik als unverantwortlich erscheint.
Normativ → Sie betten politische Programme in technische Spezifikationen ein, die neutral erscheinen. Der „Proof of Personhood“-Algorithmus ist nicht nur ein technisches Werkzeug. Er verkörpert eine cyberlibertäre Überzeugung: dass demokratische Identitätssysteme grundsätzlich fehlerhaft sind und private, kryptographische Systeme sie ersetzen müssen.
III
Eine historische Parallele drängt sich auf – ins Mittelalter.
Im späten Mittelalter verkaufte die Kirche Ablassbriefe. Das Geschäftsmodell war genial: Man definierte ein Problem (die Sünde, das Fegefeuer), das niemand empirisch überprüfen konnte. Man erzeugte Angst (ewige Verdammnis). Und dann bot man die Lösung an (den Ablass), die nur die Kirche liefern konnte. „Sobald das Geld im Kasten klingt, die Seele aus dem Fegefeuer springt“, predigte Johann Tetzel.
World operiert nach derselben Logik. Das Problem (KI-getriebener Identitätsdiebstahl in apokalyptischem Ausmaß) ist spekulativ und empirisch nicht überprüfbar. Die Angst (existenzielles Risiko, Ausschluss aus der Zukunft) wird systematisch erzeugt. Und die Lösung (der Iris-Scan, die Kryptowährung, die private Infrastruktur) kann nur von World geliefert werden.
Wie die mittelalterliche Kirche beansprucht World eine doppelte Autorität: Es ist gleichzeitig der Architekt der potenziell gefährlichen Technologie (OpenAI entwickelt die KI) und ihr verantwortungsvollster Hüter (World schützt uns vor den Folgen). Belsunces und Forlano nennen das „Stewardship Legitimacy“ – moralische Autorität aus dem Anspruch, die Gefahren am besten zu kennen – weil man sie selbst erschaffen hat.
Im Mittelalter brauchte es Martin Luther, um diesen Kreislauf zu durchbrechen. Im digitalen Zeitalter haben wir bisher nur Datenschutzbehörden.
IV
Die Forscher:innen stützen sich auf eine Analyse des Ökonomen Michael Howard, die erklärt, warum Risikokapital diese Fiktionen nicht nur toleriert, sondern braucht.
Venture Capital setzt weniger auf aktuelle Profitabilität als auf die Antizipation dessen, was in zukünftigen Krisen sozial notwendig werden wird. VC-Firmen investieren in Unternehmen, die fähig erscheinen, zukünftige Notwendigkeiten zu monopolisieren – ob die Krise jemals eintritt oder nicht. Was zählt, ist die Antizipation der Unvermeidlichkeit.
Diese Logik verwandelt projizierte Zukünfte in gegenwärtige Vermögenswerte. Investor:innen extrahieren Wert aus der bloßen Möglichkeit zukünftiger Notwendigkeit. Deshalb sind sowohl utopische Versprechen als auch apokalyptische Warnungen strukturell essenziell für Risikokapital: Sie erzeugen die Krisennarrative, die die spekulative Investition rechtfertigen.
World ist ein Paradebeispiel. Die 400 Millionen Dollar vom saudischen Staatsfonds PIF für Travis Kalanicks CloudKitchens, die Milliarden für Altmans OpenAI – sie fließen nicht, weil die Produkte heute profitabel sind. Sie fließen, weil die Geschichte überzeugend genug ist, um eine Monopolstellung in einer Zukunft zu sichern, die vielleicht nie so eintritt, wie sie erzählt wird.
V
Am greifbarsten zeigen sich diese Fiktionen im Orb selbst. Belsunces und Forlano analysieren ihn als „trojanisches Pferd“ für cyberlibertäre Politik.
Oberflächlich ist der Orb ein biometrisches Gerät. Aber seine Funktion geht weit darüber hinaus. Durch den Onboarding-Prozess – App herunterladen, Orb finden, Iris scannen lassen, Kryptowährung erhalten – werden Nutzer:innen nicht nur in ein technisches System eingeführt. Sie werden in eine Weltanschauung eingeführt.
Die World-App zeigt Live-Preischarts der Kryptowährung. Sie führt „Krypto-Anfänger:innen“ in die Logik dezentraler Finanzmärkte ein. Sie normalisiert die Idee, dass Identität nicht vom Staat, sondern von einem privaten Protokoll verwaltet werden sollte. Der Orb ist, wie die Forscher:innen schreiben, „nicht nur ein Onboarding in das World-Ökosystem, sondern in ein cyberlibertäres Governance-Regime“.
Das erinnert an die Szene in Minority Report, in der John Anderton durch ein Einkaufszentrum läuft und die Werbetafeln ihn persönlich ansprechen, weil sie seine Netzhaut gescannt haben. Spielberg zeigte das als Albtraum einer totalen Überwachungsgesellschaft. World verkauft es als Feature.
VI
Die Theorie wird besonders bitter, wenn wir uns die Praxis ansehen. World hat seine biometrische Basis nicht in San Francisco oder Berlin aufgebaut. Es begann in Kenia, Indonesien und anderen Ländern des Globalen Südens.
Die Methoden waren, gelinde gesagt, problematisch. Recherchen des MIT Technology Review dokumentierten, wie Worldcoin in Kenia und Indonesien Iris-Scans gegen Geld oder Geschenke tauschte, manchmal in öffentlichen Einrichtungen wie Schulen. Viele der Gescannten verstanden nicht, wie ihre biometrischen Daten verwendet oder gespeichert würden. Aber das Versprechen von „kostenlosem Geld“ war zu verlockend.
Die Reaktion der Staaten war eindeutig: Kenia verbot World 2023 und ordnete 2025 die Löschung aller gesammelten Daten an. Spanien, Portugal, Brasilien, Hongkong und Kolumbien folgten mit Verboten oder Suspendierungen. In Portugal hatten sich über 300.000 Menschen scannen lassen, bevor die Datenschutzbehörde einschritt – nachdem Beschwerden eingingen, dass auch Kinder gescannt worden waren.
Belsunces und Forlano nennen das „kryptokoloniale Dynamiken“: Die Entnahme biometrischer Daten aus gefährdeten Bevölkerungen gegen spekulative Token, legitimiert durch das Versprechen finanzieller Inklusion.
VII
Das Paper situiert World in einem größeren politischen Kontext, den die Autor:innen als „cyberlibertäre Transition“ bezeichnen – ein Begriff, der auf Langdon Winners Analyse von 1997 zurückgeht.
Cyberlibertarismus ist die Überzeugung, dass Governance durch Computation und digitale Infrastrukturen neu konfiguriert werden sollte, unter Umgehung demokratischer Institutionen, die als überbürokratisch und korrupt gelten. Was vor drei Jahrzehnten eine Randideologie war – geboren in den Cypherpunk-Mailinglisten der 1990er, genährt von The Crypto Anarchist Manifesto (1988) und den transhumanistischen Fantasien der Extropianer –, ist heute hegemonial.
Der Politikwissenschaftler David Golumbia beschreibt vier Strategien, durch die Cyberlibertäre Macht konsolidierten:
- Sie etablierten epistemische Autorität, indem sie technische Expertise als Demokratisierung umdeuteten.
- Sie übten diskursive Macht aus durch die Rhetorik der „erlaubnisfreien Innovation“ (permissionless innovation), die Krisen als technologische Chancen umrahmte.
- Sie betrieben institutionelle Vereinnahmung durch akademische Zentren, NGOs und Think Tanks.
- Und sie sicherten materielle Konsolidierung durch Krypto-Vermögen und Risikokapitalzugang, die regulatorische Umgebungen formten.
World verkörpert alle vier Strategien gleichzeitig. Der „Proof of Personhood“-Algorithmus etabliert epistemische Autorität, indem er biometrische Überwachung als Demokratisierung und KI-Sicherheit umrahmt. Die Krisennarrative üben diskursive Macht aus. Das Projekt verfolgt institutionelle Vereinnahmung, indem es sich als unvermeidliche Governance-Infrastruktur für das „Intelligence Age“ positioniert. Und es sichert materielle Konsolidierung durch Risikokapitalfinanzierung und Token-Allokation – wobei 10 % aller Token an Investor:innen und weitere 10 % an Mitarbeiter:innen gehen.
Diese Konvergenz von cyberlibertärer Ideologie, Risikokapital und politischer Macht erklärt, warum das Silicon Valley sich zunehmend mit der politischen Rechten verbündet. Elon Musks Twitter-Übernahme zur Förderung rechter Diskurse, die neoreaktionäre Advocacy von Peter Thiel und Marc Andreessen (dessen „Techno-Optimist Manifesto“ von 2023 jede „Verlangsamung der KI“ als tödlich brandmarkt), die explizite Unterstützung der Trump-Administration durch Tech-Eliten – das sind keine Ausrutscher. Es ist die logische Konsequenz einer Ideologie, die demokratische Institutionen als Hindernisse betrachtet.
VIII
Die intellektuelle Grundlage dieser Bewegung ist der Longtermismus – eine philosophische Position, die mögliche Zukunftsergebnisse über gegenwärtiges Wohlergehen stellt. Der Begriff geht auf Nick Bostrom zurück, der 2002 das Konzept des „existenziellen Risikos“ formulierte: Bedrohungen, die die menschliche Zivilisation zum Einsturz bringen könnten, darunter Atomkrieg, Biotechnologie und – zentral – eine „fehlausgerichtete“ Superintelligenz.
Die Kritik an diesem Rahmenwerk ist vernichtend. Die Forscher:innen Timnit Gebru und Émile Torres haben den Longtermismus als Teil eines ideologischen Bündels entlarvt, das sie TESCREAL nennen – ein Akronym für Transhumanismus, Extropianismus, Singularitarismus, Kosmismus, Rationalismus, Effektiven Altruismus und Longtermismus. Dieses Bündel, so ihre Analyse, verbindet eugenische Traditionen mit dem Versprechen der Utopie durch künstliche allgemeine Intelligenz.
Der praktische Effekt des Longtermismus ist bequem für Milliardär:inen: Er verwandelt Elite-Akkumulation in einen moralischen Imperativ. Wenn die Zukunft der Menschheit auf dem Spiel steht, dann ist jede Ressourcenumleitung in spekulative Projekte gerechtfertigt – und jede Forderung nach Umverteilung wird zum unverantwortlichen Kurzfristdenken. Musk und Thiel umarmen diese Logik, weil sie massive Kapitalkonzentrationen als „notwendige Investitionen in die technologische Zukunft der Menschheit“ rahmt – und unmittelbare soziale Bedürfnisse als nachrangig abtut.
Hier schließt sich der Kreis zu World. Das Projekt operiert exakt in dieser Logik: Die gegenwärtige Extraktion biometrischer Daten von Millionen Menschen wird als zukünftige Notwendigkeit gerahmt. Wir scannen deine Iris nicht, weil es heute nötig ist. Wir scannen sie, weil es morgen nötig sein wird. Und wer sind wir, das in Frage zu stellen? Schließlich steht die Zukunft der Menschheit auf dem Spiel.
IX
Wer über sterbende Giganten gelesen hat, über Zonen der Ausnahme, über die Architektur des Unsichtbaren, erkennt in World ein vertrautes Muster. Es ist ein neomittelalterliches Phänomen.
Im europäischen Mittelalter war Souveränität fragmentiert. Könige, Kirche, Gilden, Stadtstaaten und Ritterorden überlappten sich in ihren Zuständigkeiten. Es gab kein Gewaltmonopol, keine klare Trennung von öffentlich und privat, keine einheitliche Rechtsordnung. Identität war keine Frage des Passes, sondern der Zugehörigkeit zu einer Gemeinschaft, einer Gilde, einer Pfarrei.
World baut genau diese Struktur nach – nur digital. Es errichtet eine para-staatliche Identitäts- und Finanzinfrastruktur, die neben (und potenziell anstelle von) demokratischen Institutionen operiert. Die „World Foundation“ sitzt auf den Cayman Islands, einem Steuerparadies, als „mitgliederlose“ Non-Profit-Organisation. Sie unterliegt keiner demokratischen Kontrolle. Sie ist, in der Sprache von Keller Easterling, ein Stück Extrastatecraft – Infrastruktur, die ihre eigenen Regeln etabliert und nationale Gesetze umgeht.
Kein Bug; das Feature. Die cyberlibertäre Vision will den Staat ersetzen. Nicht durch Gewalt, sondern durch Infrastruktur. Nicht durch Revolution, sondern durch Onboarding. Jeder Iris-Scan ist ein kleiner Akt der Unterwerfung unter ein privates Governance-Regime, verpackt als Fortschritt.
Die mittelalterliche Kirche brauchte keine Armee, um Macht auszuüben. Sie brauchte ein Monopol auf die Heilsvermittlung. World braucht keine Armee. Es braucht ein Monopol auf die Identitätsvermittlung im „Intelligence Age“.
X
Kehren wir zum Torment Nexus zurück. In Minority Report zeigt Spielberg eine Welt, in der Netzhautscans allgegenwärtig sind. Jede Tür, jedes Geschäft, jede U-Bahn scannt deine Augen. Die Werbung spricht dich persönlich an. Die Polizei weiß, wo du bist. Das System heißt „PreCrime“ und bestraft Verbrechen, bevor sie geschehen – basierend auf den Visionen von drei in Tanks schwimmenden „Precogs“, deren Vorhersagen als unfehlbar gelten.
Der Film ist eine Warnung. Er zeigt, wie ein System aus Vorhersage und biometrischer Kontrolle zwangsläufig korrumpiert wird. Die Precogs irren sich manchmal (die „Minority Reports“). Das System wird von denen manipuliert, die es kontrollieren. Und die totale Überwachung zerstört genau die Freiheit, die sie zu schützen vorgibt.
World reproduziert die Ästhetik und die Logik von Minority Report, aber ohne die Warnung. Der Orb ist der Netzhautscanner. Der „Proof of Personhood“ ist das PreCrime-System – nur dass es nicht Verbrechen vorhersagt, sondern „Menschlichkeit“ verifiziert, was im Umkehrschluss bedeutet: Wer nicht gescannt ist, ist potenziell kein Mensch. Wer nicht im System ist, existiert nicht.
Die Forscher:innen beschreiben, wie der Orb eine Erfahrung erzeugt, die einem „Live-Action-Rollenspiel“ ähnelt: Du lädst die App herunter, findest einen Orb in deiner Nähe, lässt deine Iris scannen. Es ist ein Ritual. Und wie jedes Ritual normalisiert es das, was es inszeniert. Nach dem Scan fühlst du dich nicht überwacht. Du fühlst dich verifiziert. Du fühlst dich menschlich. Das ist die Verzauberung, von der Belsunces und Forlano sprechen: Die Verwandlung eines Überwachungsakts in ein Erlebnis technologischer Transzendenz.
XI
Das Paper von Belsunces und Forlano ist keine Polemik. Es ist eine präzise Analyse der Mechanismen, durch die Fiktion zu Infrastruktur wird. Und es hat Implikationen, die weit über World hinausreichen.
Erste Lektion: Fiktionen sind nicht harmlos. Wenn Sam Altman vom „Intelligence Age“ spricht, wenn er vor dem Senat warnt, dass KI „ziemlich schiefgehen“ kann, wenn das Future of Life Institute einen offenen Brief veröffentlicht, der eine „Pause“ der KI-Entwicklung fordert – dann sind das keine neutralen Informationen. Es sind performative Akte, die eine Realität erzeugen, in der bestimmte Lösungen (private, kryptographische, biometrische) als unvermeidlich erscheinen und andere (demokratische, regulatorische, öffentliche) als unzureichend.
Zweite Lektion: Die Ästhetik ist Teil der Politik. Der Orb sieht nicht zufällig aus wie ein Requisit aus einem Science-Fiction-Film. Seine Gestaltung erzeugt Staunen, Neugier, das Gefühl, an etwas Historischem teilzunehmen. Diese ästhetische Verzauberung ist kein Marketing-Trick. Sie ist ein politisches Werkzeug, das Kritik einfriert und Teilnahme als Abenteuer rahmt.
Dritte Lektion: Wir müssen die Frage nach der Legitimität stellen. Wer hat World autorisiert, eine globale Identitätsinfrastruktur zu bauen? Niemand. Kein Parlament, kein Referendum, keine internationale Organisation. Es ist ein privates Unternehmen, finanziert von Risikokapital und Staatsfonds, registriert in einem Steuerparadies, das sich selbst zum Hüter der menschlichen Identität im KI-Zeitalter erklärt hat. Die einzige Legitimation ist die Fiktion, dass es notwendig ist.
Vierte Lektion, vielleicht die wichtigste: Die Zukunft ist nicht unvermeidlich. Die größte Leistung der soziotechnischen Fiktionen ist es, uns glauben zu machen, dass es keine Alternative gibt. Dass AGI kommen wird. Dass die Krise unvermeidlich ist. Dass private Infrastruktur die einzige Antwort ist. Aber das ist selbst eine Fiktion. Eine sehr gut erzählte, sehr gut finanzierte, sehr gut inszenierte Fiktion – aber eine Fiktion.
Kenia hat World verboten. Spanien hat World verboten. Portugal, Brasilien, Kolumbien, Hongkong haben World verboten oder suspendiert. Das sind keine Akte der Technophobie. Das sind Akte der demokratischen Selbstbehauptung. Sie sagen: Unsere Bürger:innen sind keine Datenpunkte. Ihre Iris gehört ihnen. Und die Frage, wer ihre Identität verwaltet, ist eine politische Frage, keine technische.
Edward Snowden brachte es 2021 auf den Punkt, als Worldcoin erstmals vorgestellt wurde: „Benutzt keine Biometrie für irgendetwas. Der menschliche Körper ist kein Lochstreifen.“