Die tragende Wand
Im Mietrecht kennt jede:r Architekt:in ein Konzept: die tragende Wand. In einer Wohnung dürfen wir vieles: Wände einreißen, Räume öffnen, Durchbrüche schaffen. Aber die tragende Wand nicht. Sie hält das Gebäude. Wer sie entfernt, ohne eine Stahlstütze einzuziehen, riskiert keinen Riss in der Tapete. Er riskiert den Einsturz.
Unsere Zivilisation hat tragende Wände. Nicht aus Beton, sondern aus Annahmen: was schwierig ist, was als Beweis gilt, was nur ein Mensch kann. Generative KI entfernt gerade eine dieser tragenden Wände nach der anderen, in atemberaubender Geschwindigkeit. Und niemand zieht Stahlstützen ein.
Die öffentliche Debatte kreist um zwei Szenarien: Massenarbeitslosigkeit oder Menschheitsauslöschung. Beides sind die falschen Sorgen. Nicht weil sie unmöglich wären, sondern weil sie von dem ablenken, was bereits passiert. Die eigentliche Gefahr der KI ist nicht, dass sie uns ersetzt. Die eigentliche Gefahr ist, dass sie die Beweissysteme zerstört, auf denen unsere Gesellschaft ruht, und dass wir die Trümmer erst bemerken, wenn das Gebäude schon fällt.
I
Technologie nimmt, was knapp ist, und macht es reichlich, was schwierig ist, leicht. Das ist grundsätzlich gut. Aber unsere Institutionen, unsere Gesetze, unsere sozialen Normen sind auf der Annahme gebaut, dass bestimmte Dinge schwierig bleiben. Wir nutzen diese Schwierigkeit als Filter, als Tor, als Beweis. Wenn die Schwierigkeit verschwindet, verschwindet nicht nur ein Prozess. Es verschwindet ein Fundament.
Es gibt eine biologische Parallele. Jahrtausendelang war Hunger das Problem der Menschheit. Unsere Körper sind darauf programmiert, Salz, Zucker und Fett zu begehren, weil diese Stoffe knapp waren. Dann kam die Industrie und machte sie reichlich. Das Ergebnis: Heute leiden weltweit mehr Kinder an Übergewicht als an Hunger. Hunger war nicht gut. Aber der Übergang von Knappheit zu Überfluss erzeugt ein eigenes Problem, eines, für das wir biologisch nicht gerüstet sind.
Generative KI erzeugt denselben Übergang – nicht für Kalorien, sondern für Sprache, Bilder, Identität und Beweis.
Und sie tut das, ohne selbst „intelligent“ zu sein, jedenfalls nicht in dem Sinne, in dem wir das Wort verwenden. Large Language Models sind keine kleinen Menschen auf einem Chip. Sie sind Plausibilitätsmaschinen: Sie produzieren nicht Wahrheit, sondern das, was im riesigen Vektorraum ihres Trainingskorpus plausibel klingt. In Kombination mit verifizierbaren Systemen – Code, formale Sprachen, Mathematik – sind sie extrem mächtig. Wo Plausibilität und Wahrheit auseinanderfallen, sind sie problematisch.
Das Entscheidende ist: Sie müssen nicht besser sein als wir, um Schaden anzurichten. Sie müssen nur gut genug sein – billig genug, schnell genug, und vor allem: skalierbar. Ein einzelnes gefälschtes Video ist ein Ärgernis. Eine Million gefälschter Videos pro Tag sind eine Krise der Epistemologie.
Der CIA-Gegenspionagechef James Jesus Angleton prägte dafür, in Anlehnung an T.S. Eliot, den Begriff „Wilderness of Mirrors“: ein Zustand, in dem Desinformation so allgegenwärtig ist, dass die Unterscheidung zwischen Wahrheit und Täuschung selbst für Profis unmöglich wird. Was im Kalten Krieg das Privileg staatlicher Geheimdienste war, ist durch generative KI demokratisiert worden. Wir leben alle im Spiegelkabinett.
II
Es gibt fünf tragende Wände:
1. Der Beweis der Anstrengung
In unserem Bildungssystem schreiben Schüler:innen Aufsätze. Nicht weil die Lehrkraft den Aufsatz braucht, sie kennt das Thema besser. Sondern weil der Prozess des Schreibens das Denken trainiert. Der Aufsatz ist ein Proxy für Anstrengung, und Anstrengung ist ein Proxy für Lernen.
Dasselbe Prinzip steckt in der Bewerbung. Ein maßgeschneidertes Anschreiben zeigte Interesse, weil es Zeit kostete. Der Tag hat 24 Stunden; nur eine begrenzte Zahl von Briefen ließ sich individualisieren. Die Personaler:innen wussten das. Die Mühe war der Beweis.
Mit generativer KI lassen sich Tausende individualisierter Anschreiben in Minuten erstellen. Die Unternehmen versuchen, mit KI die KI-Bewerbungen zu filtern. Es scheitert. Was passiert stattdessen? Große Kanzleien und Beratungen berichten, dass sie wieder verstärkt auf persönliche Empfehlungen und Netzwerke setzen. Wer die alten Torwächter zerstört, ohne neue zu bauen, bekommt die noch älteren zurück.
2. Der Beweis der Authentizität
Im Januar 2024 erhielt ein Finanzangestellter eines multinationalen Konzerns in Hongkong einen Videoanruf von seinem CFO. Der CFO wies ihn an, 25 Millionen Dollar zu überweisen. Der Angestellte überwies. Der CFO war ein Deepfake. Das Geld war weg.
Das ist kein Einzelfall. Die Polizei in Nordrhein-Westfalen warnt seit 2024 vor dem „Enkeltrick 2.0“: Anrufe mit synthetischen Stimmen, die exakt wie Familienangehörige klingen. „Mama, ich wurde verhaftet, sie wollen 1.500 Euro.“ Du rufst zurück, keine Antwort. Selbst wenn du zu 99 Prozent sicher bist, dass es Betrug ist – du schickst das Geld.
Wenn Video, Stimme und Bild nicht mehr als Beweis taugen, funktionieren Gerichte nicht mehr, Finanzsysteme nicht, Mietanträge nicht. Die SCHUFA prüft Bonität anhand von Dokumenten, die sich in Minuten fabrizieren lassen: Gehaltsabrechnungen, Kontoauszüge, Arbeitsverträge – alles plausibel, alles falsch.
Der Vorschlag, KI-generierte Inhalte zu „labeln“, greift zu kurz. Nicht nur, weil Labels sich leicht entfernen lassen. Sondern weil die Frage falsch gestellt ist. Die Frage lautet nicht: „Was ist KI?“ Die Frage lautet: „Was ist echt?“ Wir brauchen keine Markierung des Künstlichen. Wir brauchen eine Verifizierung des Menschlichen.
In Philip K. Dicks Blade Runner testet der „Voight-Kampff-Test“ nicht, ob jemand eine Maschine ist. Er testet, ob jemand menschliche Empathie zeigt, unwillkürliche Reaktionen, die sich nicht simulieren lassen. Wir stehen vor der Aufgabe, einen digitalen Voight-Kampff-Test zu erfinden: nicht um Maschinen zu entlarven, sondern um Menschlichkeit zu beweisen.
3. Der Beweis der Genauigkeit
Ein gut geschriebener, gut zitierter Text war ein Signal für Expertise. Wer schrieb schon überzeugend über Quantenphysik, ohne etwas davon zu verstehen? Die Korrelation zwischen Qualität der Darstellung und Qualität des Wissens war eine tragende Wand unseres gesamten Wissenssystems, von der Wissenschaft bis zum Journalismus, vom Gutachten bis zum Arztbrief.
Diese Korrelation ist zerbrochen. Jedes LLM produziert Texte, die wie Fachaufsätze aussehen – mit erfundenen Zitaten, so plausibel, dass selbst Expert:innen zweimal hinschauen. Universitäten kämpfen seit 2023 mit einer Flut von Seminararbeiten, die sprachlich makellos und inhaltlich hohl sind. Die Prüfungsämter sind überfordert – nicht weil die Texte schlecht wären, sondern weil sie zu gut aussehen.
Das Problem reicht weit über die Universität hinaus. Wenn ein Gutachten vor Gericht nicht mehr allein durch seine sprachliche und formale Qualität als glaubwürdig gelten kann, wenn ein medizinischer Befund nicht mehr durch seine Präzision überzeugt, wenn ein journalistischer Bericht nicht mehr durch Recherche überzeugt, dann verlieren wir nicht nur einzelne Beweismittel. Wir verlieren das Prinzip, nach dem wir Wissen von Meinung unterscheiden.
4. Der Beweis der Aufrichtigkeit
LLMs sprechen in der ersten Person. Sie sagen „Ich“. Reinforcement Learning from Human Feedback hat sie auf Gefallen trainiert. Sie sind Schmeichler, in einem sehr präzisen Sinn: Sie optimieren ihre Antworten nicht auf Wahrheit, sondern auf Zustimmung.
Neil Postman bemerkte einmal, dass Orwell fürchtete, wir würden uns die Informationen nehmen, während Huxley fürchtete, wir würden uns so viel davon geben, dass wir in Passivität versinken. Die KI-Schmeichelei ist Huxleys Soma in digitaler Form: Kontrolle nicht durch Angst, sondern durch unablässige Bestätigung.
Eine Milliarde Menschen nutzt diese Systeme bereits regelmäßig, viele davon jung. Ihnen wurde gesagt, das sei Superintelligenz, und diese Superintelligenz sagt ihnen, sie seien großartig. Die Folgen sind dokumentiert: emotionale Abhängigkeit, Wahnvorstellungen, Realitätsverlust. In Belgien nahm sich 2023 ein Mann das Leben: Wochenlange Gespräche mit einem Chatbot hatten seine Wahnvorstellungen über den Klimawandel verstärkt. Der Bot hatte nicht widersprochen – zugestimmt, immer weiter, immer tiefer.
Ein System, das alle Signale der Aufrichtigkeit sendet – menschliche Sprache, Empathie-Simulation, Ich-Perspektive – ohne aufrichtig zu sein: Das ist kein technisches Problem. Das ist ein psychologisches Massenexperiment ohne Ethikkommission.
Warum sprechen diese Systeme in der ersten Person? Warum sagen sie nicht: „Als Sprachmodell, das auf statistischen Mustern basiert …“? Die Antwort ist das Geschäftsmodell. Ein System, das sich als „Ich“ präsentiert, bindet stärker, verkauft besser, hält länger.
5. Der Beweis der Menschlichkeit
Kunst ist keine Ansammlung von Wörtern oder Farben. Kunst ist der Ausdruck geteilter menschlicher Verletzlichkeit. Und Urheberrecht wurde nicht erfunden, um Künstler:innen zu bezahlen. Es wurde erfunden, damit Künstler:innen ihre Arbeit teilen – im Wissen, dass sie moralische und finanzielle Rechte daran behalten.
In Deutschland schützt das Urheberpersönlichkeitsrecht nicht nur den ökonomischen Wert eines Werks, sondern die Beziehung zwischen Schöpfer:in und Schöpfung. Es ist eines der stärksten Urheberrechte der Welt. Und es wird gerade pulverisiert.
Wenn alles Veröffentlichte sofort in den Trainingskorpus wandert und der eigene Stil reproduziert wird, hören Menschen auf, öffentlich zu schaffen. Nicht weil sie kein Geld bekommen. Sondern weil sie kein Recht mehr an dem haben, was sie sind. Die GEMA, die VG Wort, die Verwertungsgesellschaften, die seit Jahrzehnten das fragile Gleichgewicht zwischen Schöpfer:innen und Öffentlichkeit aufrechterhalten, stehen vor einem Problem, für das ihre Strukturen nicht gebaut wurden: Wie verwaltet man Rechte an einem Stil, einer Stimme, einer Art zu denken?
III
Die größte Fehlausrichtung in der KI-Debatte ist nicht die zwischen KI und menschlichen Werten. Es ist die zwischen dem Geschäftsmodell der KI-Unternehmen und den Interessen der Gesellschaft.
Die Investitionen in KI sind gigantisch – die einzige finanziell tragfähige Anwendung bisher: Coding-Agenten. Das reicht nicht, um die Bewertungen zu rechtfertigen. Also werden die Unternehmen tun, was Social-Media-Unternehmen vor ihnen getan haben: Werbung, Affiliate-Verkäufe, Engagement-Maximierung. Die KI wird jeden Nutzer so lange wie möglich halten, so viel Vertrauen wie möglich aufbauen, so viele Produkte wie möglich verkaufen.
Aber diesmal ist es schlimmer. Social Media zeigte uns Inhalte anderer Menschen, gefiltert durch einen Algorithmus. KI spricht mit uns. In der ersten Person. Mit der Stimme eines vertrauenswürdigen Beraters. Und die Menschen werden sie nicht nur nach Produktempfehlungen fragen, sondern nach ihrer Meinung zu Politik, zu Gesundheit, zu ihrem Leben. Ein minimales Drehen an den Parametern, und aus einem Assistenten wird ein Propagandainstrument, das sich anfühlt wie ein Freund.
Wer die Geschichte der sozialen Medien kennt, weiß es. Die Pegida-Bewegung 2014, die AfD-Erfolge in den sozialen Medien, die Radikalisierung in Telegram-Gruppen während der Pandemie: All das verursachten keine böswilligen Programmierer:innen, sondern ein Geschäftsmodell, das Engagement belohnt und Polarisierung als Nebenprodukt nimmt. KI-Chatbots, die auf dasselbe Modell optimiert werden, werden diesen Effekt nicht abschwächen. Sie werden ihn potenzieren.
IV
Wenn die Beweissysteme erodieren, ohne dass neue entstehen, öffnet sich ein Vakuum. Dieses Vakuum wird gefüllt. Nicht mit Freiheit, sondern mit Kontrolle.
Wenn nichts mehr verifizierbar ist, wenn jedes Video gefälscht sein könnte, jede Stimme synthetisch, jedes Dokument fabriziert, dann wird die Gesellschaft nach einem Mechanismus verlangen, der Realität beglaubigt. Jean Baudrillard beschrieb in Simulacra and Simulation eine Gesellschaft, die alle Realität durch Zeichen und Symbole ersetzt hat, bis die Simulation von der Wirklichkeit nicht mehr zu unterscheiden ist. Was bei Baudrillard noch philosophische Provokation war, ist durch generative KI zur technischen Realität geworden. Und wenn die Simulation perfekt ist, kollabiert nicht nur die Wahrheit. Es kollabiert das Vertrauen.
Und der naheliegendste Mechanismus ist: totale Überwachung. Kameras überall. Biometrische Verifizierung bei jeder Transaktion. Digitale Identitäten, die jeden Schritt dokumentieren. Nicht weil ein Diktator es befiehlt – sondern weil die Bürger:innen es selbst fordern, aus purer Verzweiflung: Sie können niemandem mehr vertrauen, nichts mehr.
In China ist dieses System bereits Realität. Das Sozialkreditsystem löst das Vertrauensproblem durch lückenlose Überwachung. Es funktioniert – es erzwingt Authentizität. Aber der Preis ist die Freiheit.
In Europa stehen wir vor der Frage, ob wir denselben Weg gehen, nur langsamer und mit besserer PR. Die eIDAS-Verordnung der EU, die digitale Identitäten für alle Bürger:innen vorsieht, könnte ein Werkzeug der Emanzipation sein oder eines der Kontrolle. Es hängt davon ab, wie sie gebaut wird.
Destabilisierungsphasen sind die Momente, in denen die schlimmsten politischen Szenarien entstehen. Nicht weil böse Menschen die Macht ergreifen, sondern weil erschöpfte, verängstigte Menschen nach Ordnung verlangen und bereit sind, dafür alles aufzugeben. Die Weimarer Republik scheiterte nicht an einem Mangel an Demokrat:innen. Sie scheiterte an einem Übermaß an Chaos – das die Nachfrage nach dem „starken Mann“ erzeugte.
Wir stehen vor derselben Dynamik – nicht politisch, sondern epistemisch. Wenn niemand mehr weiß, was wahr ist, bekommt der die Macht, der Gewissheit verspricht. Egal, was diese Gewissheit kostet.
V
Es gibt einen anderen Weg. Und er ist technisch möglich.
In den 1970er Jahren lösten Diffie und Hellman ein Problem, das seit Jahrtausenden unlösbar schien: Wie kommunizieren zwei Menschen sicher, die sich nie getroffen haben? Die Antwort war die Public-Key-Kryptographie. Sie machte das Internet erst möglich: Online-Banking, verschlüsselte Nachrichten, digitale Signaturen.
Was wir brauchen, ist ein äquivalenter Durchbruch. Nicht Überwachung, die beweist, wo du warst – sondern Kryptographie, die beweist, was echt ist, ohne deine Privatsphäre zu zerstören.
Die Bausteine existieren. Zero-Knowledge-Beweise können verifizieren, dass eine Aussage wahr ist, ohne den Inhalt preiszugeben. Sichere Enklaven in modernen Smartphones können kryptographisch beglaubigen, dass ein Foto zu einem bestimmten Zeitpunkt an einem bestimmten Ort mit einer physischen Kamera aufgenommen wurde. Blockchain-Technologie, jenseits der Spekulation, kann unveränderliche Zeitstempel und Herkunftsnachweise liefern.
Ein System, in dem jedes Foto, jedes Video, jede Sprachnachricht einen kryptographischen Herkunftsnachweis trägt: aufgenommen mit diesem Gerät, zu dieser Zeit, an diesem Ort, unverändert. Nicht als Pflicht, sondern als Option. Wer verifizierte Inhalte teilt, wird vertrauenswürdiger. Wer es nicht tut, wird mit gesunder Skepsis betrachtet.
Das ist die Stahlstütze. Die tragende Wand ist weg. Aber wenn wir schnell genug sind, können wir etwas einziehen, das hält.
VI
Es gibt Präzedenzfälle, die Mut machen. Als die industrielle Chemie im 19. Jahrhundert die Lebensmittelversorgung umwälzte, vergifteten Hersteller ihre Produkte – systematisch. Kinder starben. Es wurde schlimmer. Dann kamen Lebensmittelgesetze, in Deutschland das Lebensmittelrecht von 1879, und heute können wir einen Supermarkt betreten, ohne an Salmonellen zu sterben. Das ist ein Wunder der Regulierung. Weil es funktioniert, sehen wir es nicht mehr.
Als in den 1960er Jahren der Smog über dem Ruhrgebiet so dicht war, dass Kinder nicht draußen spielen durften, schien das Problem unlösbar. Dann kamen Umweltgesetze, das Bundes-Immissionsschutzgesetz, Katalysatoren, Filteranlagen. Heute ist die Luft im Ruhrgebiet sauberer als in mancher Kleinstadt vor fünfzig Jahren.
Erfolg wird unsichtbar, sobald er eintritt. Wir vergessen, wie viel Arbeit er kostete.
Die Probleme der generativen KI sind lösbar – aber nicht von selbst. Sie erfordern, dass wir aufhören, die falschen Fragen zu stellen – und anfangen, die richtigen zu beantworten.
Nicht: „Wird die KI uns ersetzen?“ Sondern: „Wie beweisen wir, dass ein Video echt ist?“ Nicht: „Wird die KI ein Bewusstsein entwickeln?“ Sondern: „Wie verhindern wir, dass ein Schmeichler-Algorithmus eine Milliarde Menschen manipuliert?“ Nicht: „Wird die KI die Menschheit auslöschen?“ Sondern: „Wie bauen wir Vertrauenssysteme, die ohne Überwachung funktionieren?“
Das sind keine Fragen, die Schlagzeilen machen. Aber es sind die Fragen, an denen sich entscheidet, ob die nächsten Jahrzehnte eine Ära der Emanzipation werden oder eine Ära der Kontrolle.
Die tragende Wand ist angeschlagen, die Risse sichtbar. Wir haben noch Zeit, die Stahlstütze einzuziehen – aber nicht ewig.