Die Asymptote der Illusion
Es gibt diesen Moment, den viele kennen, die mit Forschung, Technik oder Politik zu tun haben: spät abends, der Tag ist eigentlich vorbei, und trotzdem liegen noch Papers und Folien auf dem Tisch. Dazu kommen Förderanträge, Roadmaps und Strategiepapiere. Alles signalisiert Bewegung. Und zwar dauernd.
Neue Programme werden aufgelegt. „Initiativen“ bekommen Namen. Exzellenz wird neu etikettiert. Und fast jede dieser Einleitungen behauptet Dringlichkeit, als stünde morgen die Welt still.
Und trotzdem bleibt ein Gefühl zurück, das sich nicht wegmoderieren lässt: Wir werden schneller, aber kommen nicht weiter. Wir werden präziser, aber nicht freier. Wir optimieren, aber wir entdecken weniger.
Die westliche Zivilisation im frühen 21. Jahrhundert lebt in diesem Widerspruch. An der Oberfläche beschleunigt sich vieles: Datenströme, Kommunikation, Fertigungsprozesse, Hardwarezyklen. Gleichzeitig zeigt sich in den harten Bereichen – Energie, Infrastruktur, Materialgrenzen, Transport; in den Fundamentaltheorien – eine Stasis. Sie sieht nicht aus wie Stillstand, eher wie ein endloses Annähern an eine Grenze. Asymptotisch. Immer näher. Nie drüber.
Wir nennen das Fortschritt, weil es sich nach Aktivität anfühlt. Häufig ist es aber eine neue Art, im Bestehenden festzuhängen.
I
Das Missverständnis beginnt beim Wort „Stagnation“. Es klingt nach Faulheit, nach Handbremse, nach „nichts passiert“. Genau das ist es nicht. Es passiert sehr viel, nur bündelt sich ein Großteil dieser Energie dort, wo innerhalb eines etablierten Rahmens gemessen, verfeinert und skaliert werden kann – und wo sich das Ganze verwalten lässt.
Die Gegenwart ist eine Epoche der Verfeinerung. Unsere Sensoren sind besser geworden. Netze sind dichter, Produktionslinien präziser, Iterationen schneller. Auch Methoden sind oft ausgefeilter als je zuvor. Gleichzeitig wirkt diese Epoche auffällig schwach, sobald neue Kontinente des Wissens gefragt wären: neue physikalische Prinzipien, neue Energiegrundlagen, große Synthesen. Also nicht nur bessere Ordnung im Bekannten, sondern eine neue Ordnung.
Diese Verschiebung lässt sich beschreiben, ohne sie zu trivialisieren: Wir sind von der Exploration zur Explikation gewechselt. Dann ging es von Kreation zu Kuration. Und mit generativer KI rutschen wir weiter, von Kuration zur Simulation.
Das ist keine Moralpredigt. Es ist eine Beschreibung von Schwerpunktverlagerungen. Und es ist eine Beschreibung von Anreizsystemen, die genau diese Verlagerungen stabilisieren.
II
Wenn es einen Zeitpunkt gibt, an dem sich die Beziehung der westlichen Ökonomie zur Realität strukturell verändert, dann liegt er in den frühen 1970ern. 1971 wird oft als Symboljahr genannt, weil mehrere Linien zusammenlaufen: der „Nixon-Schock“ und das faktische Ende der Goldbindung im Bretton-Woods-System. Geld wird in dieser Welt nicht mehr an eine physische Referenz zurückgebunden, sondern an Politik und Kredit.
Das lässt sich als reines Währungsthema abtun. Dann bleibt aber unsichtbar, welche kulturelle Gewohnheit darin steckt: Das Zeichen löst sich vom Träger. Die Repräsentation löst sich vom Referenten. Die Zahl löst sich von der Substanz. Nicht sofort und nicht als Masterplan, eher als neue Normalität, in der Abstraktion einfacher wird als die Auseinandersetzung mit Grenzen.
Die Datensammlung auf WTF Happened In 1971? ist dabei weniger als „Beweis“ interessant, sondern als Symptomkomplex. In vielen Zeitreihen beginnt eine Divergenz: Produktivität steigt, Reallöhne stagnieren. Vermögen konzentriert sich, Finanzlogiken gewinnen gegenüber industrieller Basis an Gewicht. Wir müssen diese Kurven nicht monokausal lesen, um den Kern zu sehen: Die Anreizstruktur kippt. Risiko wird anders bepreist. Zukunft wird anders finanziert.
Diese Logik bleibt nicht allein an den Märkten. Sie sickert in den Wissenschaftsbetrieb.
Früher – kein Nostalgiesatz, sondern eine Beschreibung eines institutionellen Ethos – war „Blue Sky Research“ als Modus legitim. Vannevar Bushs Bericht Science, the Endless Frontier steht dafür: Der Staat finanziert Risiken, weil langfristige Handlungsfähigkeit als öffentliche Aufgabe verstanden wird. Scheitern ist eingeplant; manchmal ist es der Erkenntnisgewinn.
In der Ära nach 1971 wird Risiko zunehmend aus Portfolios herausgerechnet. Das passiert nicht, weil Forscher:innen plötzlich „feiger“ wären, sondern weil Systeme so gebaut werden, dass Abweichung teuer ist. Drittmittel werden zur Existenzbedingung, bibliometrischer Druck wird zur Währung. Projektlogiken, Evaluationen und „Deliverables“ setzen die Taktung. Eine Grant Economy entsteht, in der Forschung sich erst in Antragsformate übersetzen muss, bevor sie stattfinden darf.
Das moderne Institut driftet damit vom Labor in den Aktenapparat. Nicht als Karikatur, sondern als struktureller Trend. Verwaltung wächst, Compliance wächst, Berichtspflichten wachsen. Je unübersichtlicher die Welt wirkt, desto stärker wird das Bedürfnis, sie in Metriken zu zähmen. Und Metriken belohnen fast immer das Messbare – selten das Waghalsige.
III
1972 erscheint The Limits to Growth und mit ihm das World3-Modell. Wir können über Parameter streiten; wir können es als Warnung oder als Mythos lesen. Als kulturelles Ereignis war es trotzdem eine Zäsur: die explizite Behauptung, dass exponentielles Wachstum in einem endlichen System nicht einfach politisch wegverhandelt werden kann.
Wenn wir das ernst nehmen, stehen harte Optionen im Raum. Entweder werden neue physische Grundlagen gefunden, in Energie, Materialien und Produktionsformen. Oder wir akzeptieren, dass Wachstum nicht unendlich ist, und organisieren Gesellschaft anders. Beides wäre schmerzhaft.
Es gibt eine dritte Option, die kurzfristig weniger weh tut: Stabilität wird simuliert, indem „Wert“ von physischer Realität entkoppelt wird. Assets werden aufgeblasen, Schulden werden Zukunft, Finanzprodukte werden Ersatzwelt. Bewegung bleibt sichtbar, auch wenn die physische Basis nicht im selben Maß wächst.
Das ist nicht „die“ Erklärung für alles. Aber es ist eine plausible Mechanik, die viele Symptome gleichzeitig verständlich macht: Risikoaversion wird rational, Verwaltung wird zur Schaltstelle, Finanzlogik wird zur Grammatik. Und Innovation wird dort gesucht, wo sie sicher und abrechenbar wirkt: in Optimierung statt in Sprüngen.
Und genau dieses Muster taucht – mit erstaunlicher Ähnlichkeit – in den Sozialwissenschaften und in der Physik wieder auf.
IV
Die Sozialwissenschaften erzählen die Geschichte dieser Verschiebung besonders deutlich, weil sie sich selbst beobachten könnten – und es trotzdem immer seltener im großen Stil tun.
Es gab eine Zeit, in der sich Disziplinen zutrauten, „das Ganze“ zu denken. Marx, Weber, Durkheim: nicht weil sie immer recht hatten, sondern weil sie überhaupt den Anspruch hatten, Gesellschaft in ihren Triebwerken zu verstehen. Dazu gehörten Ökonomie und Rationalisierung, Religion und Institutionen, Klassen und Sinn.
Dann folgt, grob gesprochen, die systemische Phase der Mitte des 20. Jahrhunderts. Kybernetik, Systemtheorie und Strukturfunktionalismus. Talcott Parsons’ Versuch einer universellen „Theorie des Handelns“ steht dafür. Gleichzeitig verspricht die Kybernetik eine Sprache, die überall passen soll: Regelkreise und Rückkopplungen, Steuerung und Kommunikation – in Maschinen wie in Organismen, in Organisationen wie in Gesellschaft.
Diese Synthese war riskant – nicht moralisch, sondern intellektuell. Wenn Systeme als Systeme beschrieben werden, müssen Macht, Kontrolle und Zweck mitgedacht werden. Teleologie verschwindet dann nicht als Luxus, sie wird zur Kernfrage. Der Blick wird umfassend; umfassende Blicke erzeugen Widerstände. Das passiert institutionell, politisch und kulturell zugleich.
Ab den 1970ern verschiebt sich die Lage. Nach Umwälzungen der 1960er, nach dem Cultural Turn, nach Lyotards Diagnose der „Unglaubwürdigkeit gegenüber Metanarrativen“, wie von Jean-François Lyotard beschrieben, wird der Anspruch auf Totalität verdächtig. Die Meistererzählung wirkt schnell totalitär, naiv und übergriffig. Gleichzeitig wächst – parallel zur Grant Economy – der Druck, methodisch unangreifbar zu sein. Wo große Erzählungen nicht mehr als seriös gelten, werden saubere Papers geschrieben.
So entsteht Fragmentierung, die sich als Fortschritt verkaufen lässt. Wir sehen mehr Empirie; wir sehen mehr Spezialisierung. Vieles daran ist tatsächlich Erkenntnisgewinn. Der Preis ist trotzdem real: Teleologie verschwindet, normative Kraft verdunstet. Und die Frage „Wohin steuert das System?“ wird zur schlechten Manier. Wir bekommen Karten – und verlieren Wege.
V
Das Schicksal der Kybernetik ist fast symbolisch. Aus einer interdisziplinären, schwer einhegbare Bewegung wird etwas, das in Abteilungen schlecht aufbewahrt werden kann. Zu breit, zu philosophisch, zu quer. In den 1970ern wird vieles davon zerlegt oder in einen starren Komputationalismus überführt: Geist wird als Rechenprozess gefasst, Intelligenz als symbolische Manipulation. Und Kontrolle wird zum Regelalgorithmus.
Später wird die Netzwerktheorie groß. Sie ist beeindruckend. Sie kartiert soziale Verbindungen präzise. Graphen werden berechnet, Zentralitäten gemessen, Cluster beschrieben. Die Messung wird unheimlich gut.
Und doch bleibt etwas auf der Strecke. Netzwerke beschreiben Struktur, nicht Sinn. Sie zeigen, wer mit wem verbunden ist. Aber sie beantworten selten, warum das System so organisiert ist, welche Zwecke es verfolgt oder welche Formen von Macht in seinen Rückkopplungen stecken. Die Topologie wird schärfer; das Weltbild wird dünner.
Das Muster bleibt: Das Mikroskop wird besser, die Theorie wird kleiner.
VI
Kulturell wird diese Lage oft „Postmoderne“ genannt. Gemeint ist dann eine Epoche der Ironie, der Dekonstruktion, der Skepsis gegenüber Wahrheit und Fortschritt – und gegenüber den großen Erzählungen. Das trifft einen Teil, aber nicht den Kern der Gegenwart. Denn inzwischen ist nicht mehr nur Ironie. Wir sehen auch Sehnsucht nach Ernst und Sinn, nach „Realness“. Nur kehrt diese Sehnsucht häufig in einer seltsamen Form zurück: als performatives „Als-ob“.
Hier setzen Begriffe wie Hypermoderne oder Metamodernismus an. Hypermoderne ist nicht das Ende der Moderne, sondern ihre Übersteigerung. Beschleunigung und Exzess gehören dazu, ebenso Hyper-Individualismus. Konsum wird Sinnersatz; Geschwindigkeit wird Decklack. Metamodernismus beschreibt ein Oszillieren: zwischen Ironie und Aufrichtigkeit, zwischen Skepsis und Hoffnung. Wir wollen wieder glauben, aber wir können nicht mehr naiv glauben. Also handeln wir „als ob“ – wissend, dass es Kulisse sein könnte.
Das ist kein akademischer Luxusbegriff. Es beschreibt, wie sich eine Zivilisation stabilisiert, wenn sie strukturell festhängt: Substanzielle Veränderung wird durch Formenwechsel ersetzt. Oberfläche wird intensiviert, weil Tiefe nicht nachgibt.
VII
In der fundamentalen Physik zeigt sich dieses Muster so klar, dass es fast wehtut. Das Standardmodell ist eine der erfolgreichsten Theorien, die je gebaut wurden. Es ist nicht „nur alt“. Es ist gut. Es liefert Vorhersagen, die Experimente immer wieder bestätigen. Und genau darin liegt das Dilemma: Erfolg wird zum Käfig.
Seit den 1970ern ist das Standardmodell im Wesentlichen vollständig. Der Higgs-Nachweis 2012 war eine historische Leistung – und zugleich die Bestätigung einer Jahrzehnte alten Vorhersage. Es war ein Triumph der Ingenieurskunst. Ein Paradigmenbruch war es nicht.
Natürlich gab es seitdem wichtige Ergebnisse. Neutrinoszillationen sind der berühmte Riss: Neutrinos haben Masse, was im ursprünglichen Standardmodell so nicht vorgesehen war. Aber auch hier bleibt das Muster erkennbar. Der Riss führt selten zur Revolution; er führt zur Erweiterung. Das Modell wird gepatcht, nicht ersetzt.
Die Großexperimente der Gegenwart – etwa DUNE und JUNO – sind Wunderwerke. Unter der Erde wird gebaut und seltene Ereignisse werden gejagt. Parameter werden mit absurden Genauigkeiten gemessen. Wir kartieren die Küstenlinie des Bekannten mit immer höherer Auflösung.
Gleichzeitig steht die Hypothese der „Großen Wüste“ im Raum: Zwischen den Energieskalen, die wir erreichen können, und jenen, auf denen „neue Physik“ vielleicht lauert, könnte schlicht nichts sein. Ein riesiger Bereich ohne neue Teilchen, ohne neue Kräfte. Und ohne etwas, das unsere Theorie zwingen würde, sich umzubauen: Unser Wissen ist so gut und belegt, dass es andere Gesetze der Physik in anderen Ecken des Universums dafür bräuchte.
Das ist nicht nur ein physikalisches Problem, sondern auch ein soziologisches. Wenn Empirie keine Führung mehr liefert, entstehen Ersatzkompasse. Schönheit, Natürlichkeit und Eleganz. Sabine Hossenfelder kritisiert diese Dynamik scharf – etwa in ihrem Essay zur Stagnation der Grundlagenphysik und im Buch Das hässliche Universum. Gemeint sind Jahrzehnte, in denen mathematische Ästhetik als Ersatzempirie fungiert: Supersymmetrie, Stringtheorie und die Hoffnung, das Universum müsse unseren Geschmack teilen.
Wir müssen daraus nicht „die Physik ist fertig“ machen. Die Physik ist nicht fertig. Aber wir stecken in einer Lage, in der Entdeckung extrem teuer geworden ist und Bestätigung extrem attraktiv. Der goldene Käfig entsteht aus Erfolg, Kosten, Messkultur – und ja, auch aus Finanzierung.
VIII
Ähnliches gilt in der Kern- und Materialphysik. Die Suche nach der „Insel der Stabilität“ ist faszinierend und technisch atemberaubend. Sie erweitert das Periodensystem, testet Vorhersagen und schafft kurzlebige Atome. Das ist Grenzarbeit.
Und doch bleibt es oft innerhalb dessen, was die Karte schon andeutet. Es ist häufig Erweiterung vorhergesagter Gebiete, nicht Umsturz. Es ist Kartografie, nicht neuer Kontinent. Auch hier wieder: Präzision statt Paradigmenwechsel.
IX
In der Welt der Atome lässt sich Stagnation nicht als „Update“ verkaufen. Eine Batterie gehorcht Thermodynamik und Chemie.
Die Lithium-Ionen-Batterie, kommerzialisiert 1991, basiert auf Forschung der 1970er und 1980er. Das Grundprinzip bleibt stabil: Interkalation, also das Einlagern von Lithium-Ionen in Wirtsgitter. Wir haben diese Technologie enorm verbessert und industrialisiert; der Rahmen bleibt trotzdem derselbe.
Und in diesem Rahmen gibt es Grenzen. Die theoretische Energiedichte der Interkalationschemie nähert sich einem Bereich, der häufig mit etwa 350–500 Wh/kg beschrieben wird. Das ist keine magische Zahl. Es ist Ausdruck der Tatsache, dass Energie nicht beliebig komprimiert werden kann, ohne dass Materialien, Reaktivität und Nebenreaktionen die Rechnung sprengen.
Weil diese Mauer nicht einfach verschwindet, verlagert sich Innovation dorthin, wo noch Spielraum bleibt. Viel passiert im Prozess, viel im Packaging. Semi-Solid-Ansätze sind ein Beispiel. Dry Coating ist ein anderes. Cell-to-Pack und strukturelle Integration gehören dazu, ebenso Gigacasting. „Totes Gewicht“ wird entfernt, Pack-Dichten steigen, Kosten sinken, Fertigung skaliert.
Das ist realer Fortschritt. Es ist nur ein anderer Typ Fortschritt als der, den das Fortschrittsnarrativ gern verspricht. Wir sehen keine neue Chemie, die den Rahmen sprengt; wir sehen Hyper-Optimierung im bestehenden Rahmen.
Hier wird Baudrillard plötzlich praktisch: Die Karte überlagert das Gebiet. Design und Formfaktor werden zur Bühne, auf der „Innovation“ gespielt wird, weil das eigentliche Gebiet – die Chemie – kaum nachgibt.
Wir haben die Batterie nicht neu erfunden; wir haben gelernt, sie besser zu stapeln.
X
An dieser Stelle lohnt der Blick auf die Verteilung. Der Satz „seit den 1970ern nichts Neues“ wird als Absolutsatz schnell post-zynisch bis zur Unfairness, wenn er unpräzise stehen bleibt.
Seit den 1970ern hat sich die Welt der Bits massiv beschleunigt. Rechenleistung, Kommunikation, Software, Medien: Dort sind Grenzkosten niedrig, Iteration ist billig, Fehler sind reversibel. Milliarden Nutzer:innen lassen sich updaten, ohne dass eine Brücke gebaut wird.
In der Welt der Atome ist das anders. Infrastruktur ist teuer. Sie ist träge, politisch blockierbar und materialgebunden. Energieerzeugung, Transportgeschwindigkeit und Rohstoffeffizienz haben physische und soziale Grenzen.
Wenn gleichzeitig Ungleichheit wächst und Fortschritt sich in Bereiche verlagert, die als Wohlstandsgewinn nicht mehr breit ankommen, entsteht eine doppelte Illusion. Oberfläche wird schneller, aber das Leben fühlt sich nicht entsprechend leichter an. Wir bekommen bessere Geräte, aber keine besseren Strukturen. Wir bekommen mehr Information, aber nicht automatisch mehr Handlungsfähigkeit.
Fortschritt ist nicht verschwunden. Er ist verschoben – und er ist ungleich verteilt.
XI
Dann kommt generative KI – und mit ihr die Versuchung, alles zu vergessen. KI wirkt wie der lang erwartete Ausbruch: endlich wieder etwas, das nach Paradigmenwechsel aussieht. In mancher Hinsicht ist es auch einer. LLMs verändern Arbeit; die Textproduktion, die Softwareentwicklung und den Wissenszugang.
Trotzdem bleibt es plausibel, KI als Apotheose der hypermodernen Logik zu lesen: als Punkt, an dem Kuration und Simulation ineinanderkippen. LLMs „wissen“ nichts im menschlichen Sinn. Sie sind probabilistische Maschinen, trainiert auf dem Korpus der bestehenden Kultur. Sie erzeugen plausible Fortsetzungen und produzieren Oberfläche in industriellem Maßstab. Damit sind sie perfekte Werkzeuge für eine Epoche, die Oberfläche mit Fortschritt verwechselt.
Die Analyse „AI Slop“ bringt dafür das passende Wort, gerade weil es so unfeierlich ist: eine ökologische Verschmutzung des Diskurses durch massenhaft erzeugten, minderwertigen Inhalt. Das Problem ist nicht nur ästhetisch. Es ist epistemisch. Wenn Literatur, Medien, Dokumente, sogar wissenschaftliche Texte mit plausibler Simulation geflutet werden, erodiert die Verifikationskette.
Dazu kommt das mathematische Risiko des „Model Collapse“. Wenn Modelle zunehmend mit Daten trainiert werden, die von anderen Modellen erzeugt wurden, schrumpfen die Ränder der Verteilung. Seltenes, Abweichendes, wirklich Neues verschwindet zuerst. Übrig bleibt der beige Mittelwert der Plausibilität.
Als Metapher ist das fast zu perfekt: Eine Kultur, die sich mit ihrem eigenen Output füttert, verliert die Fähigkeit, neue Daten von den Grenzen der Realität aufzunehmen. Wir optimieren das Bekannte, bis das Bekannte zur Welt wird.
XII
Die problematischste Form dieser Dynamik ist nicht das peinliche KI-Posting. Sie liegt dort, wo Sprache nicht nur Darstellung ist, sondern Handlung: in Governance und Wissenschaftsbetrieb. Auch Recht, Policy und Förderwesen gehören dazu.
Wenn Dokumente, Berichte, Evaluationsunterlagen, Policy-Papiere oder Manuskripte zunehmend aus maschinell erzeugter Plausibilität bestehen, entsteht eine neue Art von Blindheit. Es ist nicht einfach Unwissen, es ist Ignoranz zweiter Ordnung: Niemand weiß mehr, ob überhaupt jemand weiß. Und die Vertrauenskette kollabiert nicht spektakulär, sondern leise.
Die Pointe ist bitter: Gerade weil Mess- und Verwaltungssysteme so mächtig sind, lassen sich Halluzinationen leichter als „Daten“ durchreichen. Dann entsteht Potemkin-Effizienz: alles wirkt schneller, während Substanz verschwindet.
In so einer Welt ist „Science is toast“ kein Tweet, sondern eine strukturelle Gefahr. Wissenschaft als institutionalisierte Wahrheitsproduktion wird nicht durch Zensur zerstört, sondern durch Entropie.
XIII
Wenn wir diese Stränge zusammenziehen, entsteht kein schlichtes „alles ist schlecht“. Es entsteht etwas Präziseres – und Unheimlicheres.
1971 steht dann für eine Anreizverschiebung. World3 steht für den Schatten der Grenze. In den Sozialwissenschaften sehen wir den Rückzug in Methode. In der Physik sehen wir den Präzisionskäfig. Bei Batterien sehen wir die Chemie-Mauer. Und KI bringt den Simulationsexzess.
Wir sind sehr gut darin geworden, innerhalb von Rahmen zu perfektionieren. Wir sind schlechter darin geworden, neue Rahmen zu riskieren. Der Ausweg ist deshalb kein neues Buzzword und nicht die Hoffnung auf „die nächste Disruption“. Der Ausweg wäre eine Rückkehr zum Realen – nicht als romantischer Naturkult, sondern als institutionelle Entscheidung.
Dazu müsste Risiko wieder finanziert werden, nicht nur verwaltet. Karrierepfade müssten so gebaut werden, dass Abweichung nicht beruflicher Selbstmord ist. Metriken, die nur Optimierung messen, müssten an Macht verlieren. Bürokratie müsste begrenzt werden, nicht nur digitalisiert. Empirie müsste gestärkt werden, nicht nur Modelle verschönert. Und in den Atomen müsste wieder so viel gewagt werden wie in den Bits.
Und gegenüber KI bräuchten wir eine einfache, aber unbequeme Disziplin: Output ist nicht Erkenntnis. Plausibilität ist nicht Wahrheit. Geschwindigkeit ist nicht Fortschritt.
Vielleicht ist das der Bruch, der uns fehlt: nicht eine neue Maschine, sondern die Bereitschaft, wieder in Kontakt mit Grenzen zu gehen. Dorthin, wo Systeme wehtun. Dorthin, wo Messung teuer ist. Dorthin, wo Scheitern möglich ist. Und dorthin, wo Kuration nicht hilft, weil noch nichts da ist.
Die Hypermoderne ist die Epoche, in der wir gelernt haben, die Karte bis zur Besessenheit zu verfeinern. Wenn wir aus der Asymptote herauswollen, müssen wir wieder das tun, was wir verlernt haben: das Gebiet betreten.