Die Tiefe der Schaufel
Unter Goldgräbern galt: Reich wird nicht, wer Gold findet. Reich wird, wer die Schaufeln verkauft. Levi Strauss wurde nicht durch Nuggets zum Imperium, sondern durch Jeans. Die Infrastruktur schlägt immer die Anwendung.
Das Prinzip reicht weiter als Geschäftsmodelle. Es beschreibt, wo in einem System die eigentliche Macht liegt: immer eine Schicht tiefer, als wir denken. Und es erklärt, warum die aktuelle Welle der Künstlichen Intelligenz nicht nur Arbeitsplätze bedroht, sondern etwas Grundlegenderes: unsere Fähigkeit, die Welt zu verstehen, in der wir leben.
I
Stewart Brand, Gründer des Whole Earth Catalog, entwickelte in den 1990er Jahren ein Modell: Pace Layers. Es beschreibt, wie komplexe Systeme – Gebäude, Gesellschaften, Zivilisationen – aus Schichten bestehen, die sich mit unterschiedlicher Geschwindigkeit verändern.
Brand wandte das auf unsere Zivilisation an. Von langsam nach schnell: Natur, Kultur, Governance, Infrastruktur, Handel, Mode. Die langsamen Schichten stabilisieren, die schnellen probieren aus. Gesund ist das System, wenn jede Schicht in ihrem eigenen Tempo läuft – getragen von den langsameren darunter, belebt von den schnelleren darüber.
Wenn eine schnelle Schicht eine langsame dominiert – wenn der Handel die Governance diktiert, die Mode die Kultur überschreibt – entsteht keine Innovation. Es entsteht Instabilität. Brand und Paul Saffo nannten die gesunde Reibung zwischen den Schichten „konstruktive Turbulenz“. Wird der Geschwindigkeitsunterschied zu groß, wird die Turbulenz destruktiv.
II
Dasselbe Modell gilt für etwas, das in der KI-Debatte kaum vorkommt: die Architektur menschlicher Kompetenz.
Jede Fähigkeit, die wir heute nutzen, steht auf einem Stapel von Abstraktionsschichten. Jede Schicht vereinfacht die darunterliegende, macht sie zugänglicher, schneller, bequemer. Und jede Schicht verbirgt die darunterliegende ein Stück mehr.
Ein Beispiel: Recherche.
Die tiefste Schicht ist das direkte Gespräch mit einer Quelle. Du gehst in ein Archiv, sprichst mit Expert:innen, liest ein Originaldokument. Das ist langsam, mühsam und unersetzlich. Du entwickelst dabei ein Gefühl für den Kontext, für die Glaubwürdigkeit, für die Lücken zwischen den Zeilen. James C. Scott nannte dieses Wissen Mētis: praktisches Wissen, das nur durch Erfahrung entsteht, das sich nicht formalisieren lässt, das an den Kontext gebunden ist wie der Dialekt an den Ort.
Die nächste Schicht ist die Bibliothek. Kataloge, Indizes, Querverweise. Schneller als das Archiv, aber du musst noch wissen, wonach du suchst. Du musst die Taxonomie verstehen, die Logik der Ordnung.
Dann kam das Internet. Suchmaschinen. Google. Plötzlich fandest du in Sekunden, wofür du früher Tage gebraucht hättest. Aber du musstest noch wissen, wie man eine gute Suchanfrage formuliert. Du musstest die Ergebnisse bewerten, die Quelle einschätzen.
Und jetzt kommt die KI. Du stellst eine Frage in natürlicher Sprache und bekommst eine Antwort. Keine Liste von Quellen, die du selbst bewerten musst. Eine Antwort. Fertig. Die schnellste, bequemste, abstrakteste Schicht.
Jede dieser Schichten hat die darunterliegende vereinfacht – und dabei ein Stück Mētis begraben. Die Fähigkeit, ein Archiv zu navigieren. Eine Suchanfrage zu formulieren. Eine Quelle zu bewerten. Überhaupt zu wissen, dass wir etwas nicht wissen.
III
Hier liegt das Muster, das über Recherche hinausgeht und für jede Domäne gilt: Kompetent ist immer nur, wer die eine Schicht tiefer bedienen kann.
Der Programmierer, der nur mit einem KI-Assistenten Code schreiben kann, ist kein Programmierer. Er ist ein Bediener einer Abstraktionsschicht. Halluziniert die KI, enthält der Code einen Fehler, den nur jemand erkennt, der die darunterliegende Logik versteht – er steht hilflos da.
Die Anwältin, die ihre Schriftsätze vom LLM schreiben lässt, ohne die Argumentation selbst durchdrungen zu haben, ist keine Anwältin. Sie ist eine Schnittstellenbedienerin. Ordnet der Algorithmus einen Fall falsch ein, taucht eine Nuance auf, die nicht in den Trainingsdaten vorkommt – sie steht vor Gericht ohne Fundament.
Der Analyst, der seine Markteinschätzung von einer KI schreiben lässt, ohne die Daten selbst verstanden zu haben, ist kein Analyst. Er ist ein Weiterleiter. Sind die Daten widersprüchlich, hat das Modell einen blinden Fleck – er produziert keine Analyses, sondern dekorierten Zufall.
Das ist das Peter-Prinzip – auf Abstraktionsschichten statt Hierarchieebenen. Laurence J. Peter beobachtete: Menschen steigen so lange auf, bis sie eine Position erreichen, für die sie nicht mehr kompetent sind. Das Analogon für Technologie: Menschen steigen durch Abstraktionsschichten, bis sie eine Schicht bedienen, deren Grundlage sie nicht mehr verstehen.
Der Unterschied: Im klassischen Peter-Prinzip bleibt der Mensch auf seinem Plateau. Im technologischen bricht das Plateau unter ihm weg.
IV
Und hier wird es problematisch. Denn Abstraktionsschichten brechen.
APIs werden abgeschaltet. Modelle werden aktualisiert, verhalten sich plötzlich anders. Anbieter gehen pleite. Regulierungen greifen. Server fallen aus. Oder, subtiler: Das Modell halluziniert – und niemand im Raum bemerkt es.
Die Forschung nennt das Automation Complacency: die schleichende Selbstzufriedenheit, die entsteht, wenn ein System zuverlässig genug funktioniert, dass wir aufhören, es zu überprüfen. Piloten, die sich auf den Autopiloten verlassen, verlieren nachweislich manuelle Flugfähigkeiten. Buchhalter:innen, deren Software rechnet, verlieren das Verständnis für die Logik hinter den Zahlen. Versagt die Automatisierung dann – in der Krise, im Ausnahmefall, im Moment, der Urteilskraft erfordert – ist die Fähigkeit, die wir bräuchten, bereits erodiert.
Das Perfide: Die Erosion ist unsichtbar. Solange das System funktioniert, sieht alles gut aus. Die Berichte sind poliert. Der Code kompiliert. Die Diagnose klingt plausibel. Niemand merkt, dass die Kompetenz, die hinter der Oberfläche liegen müsste, fehlt. Die Forschung spricht von Skill Erosion, die „weder von den Arbeitenden noch von den Führungskräften bemerkt wird“. Ein stiller Bankrott.
V
Der Kybernetiker W. Ross Ashby formulierte das Gesetz der erforderlichen Varietät: Ein Steuerungssystem muss mindestens so viele Zustände annehmen können wie das System, das es steuern will. Vereinfacht: Um Komplexität zu beherrschen, müssen wir selbst komplex genug sein.
KI scheint dieses Gesetz zu brechen – scheint uns zu erlauben, Systeme zu steuern, die wir nicht verstehen. Sie komprimiert die Varietät der Welt in eine handliche Antwort. Aber sie bricht das Gesetz nicht. Sie verschiebt es. Die Varietät verschwindet nicht: Sie wandert in die Black Box, wo wir sie nicht mehr sehen.
Das Ergebnis: eine Organisation, die operativ funktioniert, aber strategisch blind ist. Sie produziert, liefert, optimiert. Aber sie hört ihre eigenen Warnsignale nicht mehr. Stafford Beer nannte das die „dezerebrierte Katze“: ein Organismus ohne Großhirn. Er läuft noch, frisst, reagiert auf Reize. Aber er erkennt Gefahr nicht mehr.
Hier schließt sich der Kreis zu Brands Pace Layers. KI operiert auf der schnellsten Schicht: Mode, Handel, Oberfläche. Sie beschleunigt alles, was sich beschleunigen lässt. Aber die langsamen Schichten – Kultur, Governance, Natur, die Schichten, auf denen alles andere ruht – können nicht mithalten. Die Reibung wird destruktiv.
Horizontal macht KI alles schneller. Vertikal bringt sie alles zum Erliegen. Sie beschleunigt die Produktion von Antworten, verlangsamt – vielleicht stoppt – die Produktion von Verständnis. Brillant in der Breite, leer in der Tiefe.
VI
James C. Scott beschrieb in Seeing Like a State, wie autoritäre Modernisierungsprojekte scheitern: Sie ignorieren das lokale, praktische Wissen der Menschen, eben jener Mētis. Die sowjetische Kollektivierung der Landwirtschaft scheiterte nicht an mangelnder Technologie. Sie ersetzte das über Generationen gewachsene Wissen der Bäuer:innen über Böden, Mikroklimata und Anbaumethoden durch abstrakte, zentralisierte Pläne.
KI wiederholt dieses Muster auf einer neuen Ebene. Sie ersetzt Mētis durch Statistik – das Wissen, das nur durch Praxis entsteht, durch Muster aus Daten. Und so überzeugend, dass der Unterschied unsichtbar wird.
Das Ergebnis: eine Welt, in der Mētis zu einer immer größeren, immer weniger nachvollziehbaren Abstraktion wird. Wir wissen nicht mehr, wie die Antwort zustande kam, welche Annahmen in sie eingeflossen sind, wo ihre Grenzen liegen. Wir operieren in einer Simulation, die sich als Realität tarnt.
VII
Und damit sind wir zurück bei den Schaufeln.
Die Unternehmen, die in der KI-Revolution am meisten profitieren, sind nicht die, die KI anwenden. Es sind die, die die Infrastruktur bereitstellen. Nvidia verkauft die Chips. Microsoft und Amazon verkaufen die Cloud. OpenAI und Anthropic verkaufen die APIs. Sie verkaufen die Schaufeln.
Das ist kein Zufall: das Pace-Layers-Prinzip in Aktion. Die Infrastrukturschicht ist langsamer, stabiler und mächtiger als die Anwendungsschicht. Wer die Infrastruktur kontrolliert, kontrolliert alles, was darauf aufbaut – und alles, was darauf aufbaut, hängt von ihr ab.
Diese Abhängigkeit ist der eigentliche Flaschenhals. Nicht die Frage, ob KI „gut genug“ ist. Sondern die Frage, was passiert, wenn sie wegbricht. Wenn die API ausfällt. Wenn der Anbieter die Preise verdreifacht. Wenn das Modell sich ändert und die Ergebnisse plötzlich anders aussehen. Wenn die Regulierung zuschlägt.
Eine Organisation, die ihre Kernkompetenz auf eine externe Abstraktionsschicht aufgebaut hat, die sie weder versteht noch kontrolliert, ist nicht agil. Sie ist fragil – und versteckt das hinter einer Fassade von Geschwindigkeit.
VIII
Was folgt daraus? Nicht Technologiefeindlichkeit. Abstraktionsschichten sind der Motor des Fortschritts. Niemand will zurück in die Zeit, in der wir für jede Recherche ins Archiv fahren mussten. Niemand will Code in Assembler schreiben, wenn es Python gibt.
Aber es folgt eine unbequeme Wahrheit: Die Geschwindigkeit einer Organisation darf nie ihre Tiefe übersteigen.
Wer KI nutzt, um schneller zu werden, muss gleichzeitig investieren, um tiefer zu werden. Das bedeutet: Menschen ausbilden, die die Schicht unter der KI verstehen. Programmierer:innen, die ohne Copilot debuggen. Analyst:innen, die Rohdaten lesen. Jurist:innen, die einen Schriftsatz von Hand argumentieren. Nicht weil sie es jeden Tag tun müssen. Sondern weil sie es können müssen, wenn die Schicht darüber bricht.
Es bedeutet: Abhängigkeiten kartieren. Nicht nur technische (welche APIs nutzen wir?), sondern kognitive (welches Wissen haben wir externalisiert? Welche Fähigkeiten üben wir nicht mehr?). Die problematischste Abhängigkeit ist die, die niemand bemerkt, weil sie sich als Kompetenz tarnt.
Es bedeutet: Regelmäßig die Abstraktionsschicht abschalten. Nicht als Strafe, sondern als Training. Wie Pilot:innen, die regelmäßig ohne Autopilot fliegen. Nicht weil der Autopilot schlecht ist, sondern weil die Hände das Steuer vergessen, wenn sie es nie berühren. Die Fähigkeit, ohne das Werkzeug zu arbeiten, ist keine nostalgische Übung. Sie ist die Versicherungspolice gegen den Moment, in dem das Werkzeug versagt.
Es bedeutet vor allem: Infrastruktur ernst nehmen. Nicht die glamouröse der neuesten Modelle und APIs, sondern die langweilige des eigenen Wissens. Die langsame Schicht. Die, die niemand sieht, keine Schlagzeilen macht, in keinem Quartalsbericht vorkommt – aber alles trägt.
Brand: „Das Schnelle bekommt unsere ganze Aufmerksamkeit, aber das Langsame hat die ganze Macht.“ Eine Organisation, die nur in die schnelle Schicht investiert – die neuesten Tools, Modelle, Automatisierungen – ohne die langsame zu pflegen – Wissen, Erfahrung, Urteilsvermögen – baut auf Sand.
IX
Wenn wir die Abhängigkeiten kartieren, die KI erzeugt, zeigen sich drei Verwundbarkeiten, die sich gegenseitig verstärken.
Die erste ist intern → die Erosion der eigenen Kompetenz. Jede Aufgabe, die an die Maschine geht, ist eine Aufgabe, die wir nicht mehr üben. Zunächst ein Effizienzgewinn. Über Monate und Jahre wird er zum Kompetenzverlust. Die Forschung zeigt: Dieser Verlust tritt bei kognitiven Fähigkeiten schneller ein als bei motorischen. Genau die Fähigkeiten, die KI übernimmt – Analyse, Synthese, Urteilskraft – verkümmern am schnellsten, wenn sie nicht geübt werden. Und genau diese brauchen wir, wenn die KI versagt.
Die zweite ist extern → die Abhängigkeit von Infrastruktur, die wir nicht kontrollieren. Wer seine Kernprozesse auf die API eines Drittanbieters aufbaut, schafft einen „Single Point of Failure“ außerhalb seiner Kontrolle. Das ist nicht anders als eine Fabrik, die von einem einzigen Zulieferer abhängt – nur dass dieser Zulieferer Preise, Nutzungsbedingungen und Modelle jederzeit ändern kann. Die Geschichte der Technologie ist voll von Plattformen, die ihre Abhängigen erst anlockten und dann auswrangen. Wer glaubt, dass es bei KI-APIs anders sein wird, hat die Geschichte nicht gelesen.
Die dritte ist systemisch → die Schließung des Informationsraums. Wenn KI-generierte Inhalte das Internet fluten und künftige Modelle auf diesen Inhalten trainiert werden, entsteht ein geschlossener Kreislauf. Die Vielfalt der Daten schrumpft. Der Durchschnitt dominiert. Die Ausreißer – oft die wichtigsten Signale – verschwinden. Das ist nicht nur ein technisches Problem, sondern ein epistemisches: Die Grundlage, auf der wir Wissen bilden, wird kontaminiert, ohne dass wir es bemerken. Die Karte wird zur Kopie einer Kopie einer Kopie – niemand hat mehr Zugang zum Gebiet.
Diese drei Verwundbarkeiten bilden einen Teufelskreis. Je weniger eigene Kompetenz, desto größer die Abhängigkeit von der externen Infrastruktur. Je größer die Abhängigkeit, desto weniger wird die eigene Kompetenz geübt. Je weniger geübt wird, desto weniger fällt auf, wenn die Qualität der externen Quelle sinkt. Das System stabilisiert sich in einem Zustand, der von außen wie Hochleistung aussieht – von innen hohl.
X
Das klassische Peter-Prinzip: Menschen steigen in der Hierarchie auf, bis sie inkompetent sind. Das technologische Analogon: Menschen steigen durch Abstraktionsschichten, bis sie die Grundlage nicht mehr verstehen.
Aber KI fügt eine neue Dimension hinzu: Sie nivelliert die Hierarchie der Kompetenz nicht nur vertikal, sondern auch horizontal. Anfänger:innen mit KI produzieren Ergebnisse, die oberflächlich von denen von Expert:innen nicht zu unterscheiden sind. Der Code kompiliert. Der Text klingt professionell. Die Analyse sieht plausibel aus.
Kurzfristig demokratisierend. Langfristig zerstörerisch. Denn es macht den Unterschied zwischen Kompetenz und Simulation unsichtbar. Kann niemand mehr erkennen, ob eine Analyse auf Verständnis oder statistischer Interpolation basiert, verliert Kompetenz ihren Marktwert. Hat sie keinen Marktwert mehr, wird sie nicht kultiviert. Wird sie nicht kultiviert, ist sie nicht da, wenn wir sie brauchen.
Das ist die eigentliche Gefahr. Nicht dass Maschinen uns die Arbeit wegnehmen. Sondern dass sie uns die Fähigkeit nehmen, die Arbeit zu verstehen. Nicht durch Zwang, sondern durch Bequemlichkeit. Nicht über Nacht, sondern Schicht für Schicht, so leise, dass wir es erst bemerken, wenn die Schicht unter uns nachgibt.
XI
Wie baut man ein System, das diese Falle vermeidet? Die Antwort liegt in der Architektur.
Brand zeigte: Resiliente Systeme bestehen aus Schichten, die in ihrem eigenen Tempo laufen. Die schnellen absorbieren Schocks. Die langsamen bewahren Stabilität. Gesundheit entsteht durch die Reibung zwischen ihnen, nicht durch ihre Beseigung.
Übertragen auf Organisationen bedeutet das: Die KI-Schicht (schnell, effizient, abstrakt) muss von einer menschlichen Kompetenzschicht (langsam, tief, erfahrungsbasiert) getragen werden. Und zwischen beiden muss es Reibung geben. Bewusste, institutionalisierte Reibung.
Das kann bedeuten: Regelmäßige „Blackout-Übungen“, in denen Teams ohne KI arbeiten. Nicht um zu beweisen, dass KI unnötig ist, sondern um die Muskeln zu trainieren, die verkümmern, wenn wir sie nicht benutzen.
Das kann bedeuten: Eine „Regel der Tiefe“, nach der jede KI-gestützte Entscheidung jemand gegenzeichnet, der die darunterliegende Schicht versteht. Nicht als Bürokratie, sondern als Qualitätssicherung der Kompetenz.
Das kann bedeuten: Investition in das, was nicht skaliert. In Mentoring. In Handwerk. In die langsame, mühsame, nicht automatisierbare Arbeit des Verstehens. In die Ausbildung von Menschen, die nicht nur wissen, welchen Knopf wir drücken, sondern warum.
Die unbequemste aller Fragen: Was können wir noch, wenn wir die Maschine ausschalten?
Wer diese Frage nicht beantworten kann, hat keine Kompetenz, sondern nur eine Lizenz zur Nutzung fremder Kompetenz. Und Lizenzen können entzogen werden.