Boyd und die Black Box

John Boyd starb 1997, ein Jahr bevor Google gegründet wurde, ein Jahrzehnt bevor das iPhone erschien, eine Ewigkeit bevor ChatGPT die Welt veränderte. Und doch hat niemand präziser beschrieben, warum der aktuelle Hype um Large Language Models (LLMs) in die Katastrophe führen kann.

Boyd war Kampfpilot, Militärstratege und einer der einflussreichsten Denker des 20. Jahrhunderts, den kaum jemand kennt. Er revolutionierte die Luftkampftaktik, entwarf die theoretischen Grundlagen für die F-16 und schuf mit dem OODA-Loop ein Modell für Entscheidungsfindung unter Unsicherheit, das vom Pentagon bis zu Silicon-Valley-Start-ups kopiert wird.

Boyd war kein Technikfeind. Er war Ingenieur, Mathematiker, besessen von Physik und Thermodynamik. Aber er hatte eine Hierarchie, die er nie verhandelte:

„Menschen, Ideen, Hardware. In der Reihenfolge.“

John Boyd

Was wir heute erleben – die Delegation von Urteilskraft an Algorithmen, die Auslagerung von Entscheidungen an Black Boxes, die Verbrennung planetarer Ressourcen für statistische Textvorhersage – ist die Umkehrung dieser Hierarchie. Boyd würde darin keinen Fortschritt sehen. Er würde darin den Weg in die strategische Blindheit erkennen. Und er würde fragen: Wer zahlt die Rechnung?

I. Die eingefrorene Orientierung

Um zu verstehen, was Boyd über LLMs sagen würde, müssen wir seinen OODA-Loop verstehen, fern von der vereinfachten Version, die in Management-Seminaren kursiert („Schneller beobachten, schneller entscheiden!“).

OODA steht für Observe (Beobachten), Orient (Orientieren), Decide (Entscheiden), Act (Handeln). Die meisten Menschen konzentrieren sich auf die Geschwindigkeit des Durchlaufs. Boyd betonte allerdings immer wieder: Die Orientierung ist der entscheidende Schritt. Sie ist, wie Frans Osinga in Science, Strategy and War herausarbeitet, der Ort, an dem Genetik, Kultur, Erfahrung, Ausbildung und die Fähigkeit, neue Informationen zu integrieren, zu einem mentalen Modell der Realität verschmelzen.

Boyd brachte dafür Synonyme zusammen, die weit über militärische Kategorien hinausgehen: mentale Schemata, Memes, implizites Wissen (Tacit Knowledge im Sinne Michael Polanyis) – alles in einer dynamischen Beziehung zur Umwelt.

Die Orientierung ist der Ort, an dem wir die Welt verstehen. Und sie ist der Ort, an dem wir scheitern, wenn wir sie nicht ständig aktualisieren.

Nun liegt ein naheliegender Einwand auf der Hand: Moderne LLMs sind keine hermetisch abgeriegelten Systeme. Über APIs, Retrieval Augmented Generation (RAG), Model Context Protocols (MCPs) und Web-Browsing erhalten sie Zugriff auf Echtzeitdaten. Sie „sehen“ die aktuelle Welt. Ist das Argument der eingefrorenen Orientierung damit nicht hinfällig? Nein – es wird sogar schärfer.

Denn Boyd definierte Offenheit eines Systems nicht dadurch, dass es Daten aufnimmt, sondern dadurch, dass es seine interne Struktur verändert, um auf diese Daten zu reagieren. Das ist der Unterschied zwischen einem lebenden Organismus und einem Thermostat. Beide reagieren auf ihre Umwelt. Aber nur der Organismus lernt – er bildet neue neuronale Verbindungen, verändert seine Wahrnehmungsfilter, restrukturiert sein Weltbild.

Ein LLM tut das in der Inferenz nicht. Seine Gewichte – die „DNA“ seiner Orientierung – sind eingefroren. Es verarbeitet neue Daten durch eine alte, statische Brille. Es kann den aktuellen Aktienkurs zitieren, aber es kann nicht begreifen, warum dieser Kurs seine bisherige Weltsicht in Frage stellt. Es simuliert Anpassung, ohne sich anzupassen. Es ist, um es in Boyds Sprache zu sagen, ein System mit aktueller Beobachtung, aber eben eingefrorener Orientierung.

Chet Richards, Boyds engster Mitstreiter und Autor von Certain to Win, hat Boyds Kernthese so formuliert: „Orientierung ist alles.“ Es ist nicht die Geschwindigkeit des Loops, die entscheidet, sondern die Qualität der Orientierung. Venkatesh Rao hat das in seinem Buch Tempo weiter zugespitzt: „Höheres Tempo mit schlechterer Orientierung verliert gegen niedrigeres Tempo mit besserer Orientierung.“ Ein LLM, das blitzschnell antwortet, aber durch eine starre Orientierung filtert, ist nicht schneller im Boydschen Sinne. Es ist nur schneller falsch.

Boyd nannte die Fähigkeit, diesen Rhythmus zu brechen, „schnelle Transienten“. Dabei geht es nicht um permanente Hektik, sondern um die Kontrolle des Tempos. Manchmal ist es strategisch überlegen, das Tempo bewusst zu verlangsamen, um die Orientierung zu schärfen, nur um dann, wenn das eigene Bild klar ist, mit einem einzigen, präzisen Manöver zuzuschlagen.

II. Das Schneemobil, das die Maschine nicht bauen kann

In seinem Essay Destruction and Creation und der Schneemobil-Metapher aus der Conceptual Spiral beschreibt Boyd den Kern von Anpassungsfähigkeit.

Boyd bat sein Publikum, sich vier Domänen vorzustellen, die nichts miteinander zu tun haben: einen Skifahrer auf der Piste, ein Motorboot auf dem See, ein Fahrrad auf der Straße, einen Panzer auf dem Feld. Dann forderte er sie auf, die Beziehung zwischen den Teilen und ihren jeweiligen Domänen zu zerstören – die Skier vom Skifahrer zu lösen, den Außenbordmotor vom Boot, die Lenkstange vom Fahrrad, die Ketten vom Panzer. Boyd nannte das „Destructive Deduction“: das aktive Zerbrechen bestehender mentaler Ordnungen.

Dann kam der entscheidende Schritt: aus diesen losgelösten Teilen etwas Neues zu synthetisieren – ein Schneemobil. Etwas, das in keiner der ursprünglichen Domänen existierte. Das nannte Boyd dann die „Creative Induction“: die Schaffung einer neuen Realität durch domänenübergreifende Synthese.

Dieser Prozess – Zerstörung alter Konzepte, Synthese neuer – ist für Boyd der Motor jeder echten Anpassung. Und er hat ein fundamentales Merkmal: Er ist schmerzhaft. Er erfordert, dass wir unsere bisherigen mentalen Modelle aktiv in Frage stellen, ihre innere Logik aufbrechen und die Trümmer neu zusammensetzen. Das ist kein sanfter Prozess; es ist desorientierend, oft demütigend. Aber es ist der einzige Weg, mit einer Welt umzugehen, die sich nicht an unsere Erwartungen hält.

Ein LLM kann analysieren – es kann Muster in Daten erkennen, Texte zerlegen, Kategorien bilden. Nur kann es nicht synthetisieren im Boydschen Sinne. Es kann keine Schneemobile bauen. Es kann nur Varianten von Skiern, Motoren und Lenkstangen reproduzieren, weil es innerhalb der statistischen Muster seiner Trainingsdaten operiert. Es interpoliert, es glättet, es produziert das statistisch Wahrscheinlichste. Was es nicht kann: den Bruch mit der Realität erkennen. Das Unerwartete als Signal statt als Rauschen behandeln. Das eigene Modell in Frage stellen.

Wenn es über eine API eine Information erhält, die seinem Trainingswissen widerspricht, erlebt es keinen kognitiven Schmerz, keinen Paradigmenwechsel im Sinne Thomas Kuhns, keine Krise. Es „halluziniert“ oft einen Kompromiss oder ignoriert den Widerspruch. Es ist zur Stabilität verdammt – und Stabilität ist, in einer sich verändernden Welt, der Anfang vom Ende.

Boyd würde sagen: Ein LLM liefert Durchschnittswissen und Konformität. In einer stabilen, vorhersehbaren und linearen Umgebung mag das nützlich sein. In einer chaotischen, sich schnell ändernden Situation, wie Krieg und Krise, oder ein disruptiver Markt, ist das Verlassen auf ein LLM problematisch. Es macht dich vorhersehbar. Und Vorhersehbarkeit, so Boyd, ist der erste Schritt in die Niederlage.

Ein Einwand verdient hier Beachtung: In einem reinen Abnutzungskrieg – einem Attrition Warfare, in dem es nicht um Manöver, sondern um Masse geht – kann ein LLM, das Durchschnittsware massenhaft produziert, kurzfristig Vorteile bringen. Wer schneller mehr mittelmäßigen Content, mehr standardisierte Analysen, mehr automatisierte Prozesse produziert, gewinnt im Volumen.

Aber Boyd hat sein ganzes Leben damit verbracht zu zeigen, dass Abnutzungskrieg die dümmste aller Strategien ist – die teuerste, die blutigste, die am wenigsten adaptive. Wer auf Masse setzt, hat bereits akzeptiert, dass er nicht manövrieren kann. Und wer nicht manövrieren kann, verliert, sobald die Gegenseite es tut.

III. Die Verlockung der Black Box

Warum also setzen Organisationen trotzdem massiv auf KI-gestützte Entscheidungsfindung? Die Antwort liegt nicht in der Qualität der Entscheidungen. Sie liegt in der Struktur der Verantwortung.

Ein Algorithmus kann nicht zur Rechenschaft gezogen werden. Wenn eine KI entscheidet, wer den Kredit bekommt, wen wir einstellen, welche Route gefahren wird, welche Diagnose gestellt wird – und es geht schief – dann ist die Black Box schuld. Nicht die Manager:innen, die sie eingesetzt haben. Nicht der Vorstand, der sie gekauft hat. Die Maschine.

Das ist verführerisch. Es ist auch tödlich für jede lernende Organisation.

Boyd verstand Organisationen als lebende Systeme, die sich durch Feedback-Schleifen an ihre Umwelt anpassen. Der OODA-Loop ist nichts anderes als eine solche Schleife: Beobachte die Welt, orientiere dich, entscheide, handle – und dann beobachte die Konsequenzen deiner Handlung, um deine Orientierung zu korrigieren.

Wenn die Konsequenzen einer Fehlentscheidung nie die Entscheider:innen erreichen – weil sie in der Black Box verschwinden, weil sie als „Prozess“ externalisiert werden, weil sie von der Frontlinie absorbiert werden – dann bricht die Schleife. Das System kann beobachten und handeln, aber es kann nicht lernen.

Boyd nannte das „Incestuous Amplification“ – inzestuöse Verstärkung. Wir glauben der eigenen Propaganda mehr als der Realität. Wir wiederholen denselben Fehler, nur schneller und effizienter. Die Karte wird wichtiger als das Gebiet.

Der Kybernetiker Stafford Beer hatte ein Bild dafür: die „dezerebrierte Katze“. Eine Katze, der das Großhirn entfernt wurde; sie kann noch laufen, fressen, auf Reize reagieren. Aber sie hat kein Bewusstsein mehr für Gefahr. Sie ist operativ aktiv, aber strategisch blind.

Organisationen, die ihre Urteilskraft an Algorithmen delegieren, werden zu dezerebrierten Katzen. Sie können noch produzieren, liefern, optimieren. Allerdings haben sie die Fähigkeit verloren, ihre eigenen Warnsignale zu hören.

IV. Die Makro-Schließung

Boyd war besessen vom Zweiten Hauptsatz der Thermodynamik: In einem geschlossenen System nimmt die Entropie – die „Unordnung“ – unweigerlich zu, bis das System zerfällt. Zusammen mit Gödels Unvollständigkeitssatz und Heisenbergs Unschärferelation formulierte Boyd daraus sein fundamentales Axiom:

„Du kannst den Charakter oder die Natur eines Systems nicht von innen heraus bestimmen. Außerdem führen Versuche, das zu tun, zu Verwirrung und Unordnung – sowohl geistig als auch körperlich.“

John Boyd, Destruction and Creation

Der Schlüssel liegt im Wort „geschlossen“. Ein System, das sich von seiner Umwelt abkoppelt, das keine neuen Informationen aufnimmt, das seine internen Modelle nicht an der Realität testet, ist dem Untergang geweiht. Nicht vielleicht – physikalisch notwendig.

Nun könnte auch hier eingewendet werden: LLMs mit Web-Zugriff und APIs sind keine geschlossenen Systeme. Sie lesen das Internet, sie greifen auf aktuelle Datenbanken zu, sie sind mit der Außenwelt verbunden. Das stimmt auf der Ebene des einzelnen Systems. Aber auf der makroskopischen Ebene entsteht eine neue, problematischere Form der Schließung.

Wenn LLMs das Internet mit generierten Inhalten fluten – und sie tun es bereits –, und zukünftige LLMs (oder dasselbe LLM über APIs) diese Daten wieder einlesen, entsteht ein geschlossener Kreislauf auf systemischer Ebene. Die Forschung nennt das „Model Collapse“: ein degenerativer Prozess, bei dem Modelle, die auf ihren eigenen Outputs trainiert werden, die Ränder der ursprünglichen Datenverteilung verlieren. Die Vielfalt schrumpft. Der Durchschnitt dominiert. Die Ausreißer – oft die wichtigsten Signale – verschwinden.

Boyd würde das als Entropie-Zunahme im Informationsraum diagnostizieren. Die Menge der Daten steigt, aber die Qualität – das Signal-to-Noise-Verhältnis – sinkt. Das System (Menschheit + KI) beginnt, seine eigenen Halluzinationen für Realität zu halten. Es ist die ultimative inzestuöse Verstärkung: nicht mehr eine Bürokratie, die sich selbst belügt, sondern ein globales Informationssystem, das sich selbst vergiftet.

Boyd sah diese Dynamik überall: in Armeen, die ihre Doktrin über die Realität des Schlachtfelds stellten; in Unternehmen, die ihre Metriken über die Bedürfnisse ihrer Kunden stellten; in Bürokratien, die ihre Prozesse über die Probleme stellten, die sie lösen sollten. LLMs verstärken diese Tendenz – nicht weil sie keine Daten hätten, sondern weil sie eine Illusion von Wissen erzeugen, die das Fragen ersetzt.

Manager:innen, die ihre Strategie von einem LLM schreiben lassen, haben aufgehört, über Strategie nachzudenken. Analyst:innen, die ihre Berichte von einer KI generieren lassen, haben aufgehört, die Daten zu verstehen. Journalist:innen, die ihre Artikel von einem Algorithmus produzieren lassen, haben aufgehört, die Welt zu befragen.

Sie alle haben sich in ein geschlossenes System begeben. Und in geschlossenen Systemen gewinnt die Entropie. Immer.

V. Die ökologische Rechnung

Hier würde Boyd eine Verbindung ziehen, die die meisten KI-Enthusiast:innen ausblenden: Der Zweite Hauptsatz der Thermodynamik ist keine Metapher. Er ist Physik. Und LLMs sind Entropie-Maschinen im buchstäblichen Sinne.

Die Zahlen sind ernüchternd. Die Internationale Energieagentur (IEA) schätzt den globalen Stromverbrauch von Rechenzentren auf rund 415 TWh im Jahr 2024 – etwa 1,5 % des weltweiten Stromverbrauchs. Bis 2030 soll dieser Wert auf 945 TWh steigen, knapp 3 % des globalen Verbrauchs. Der KI-Anteil daran wächst am schnellsten: von geschätzten 5–15 % auf potenziell 35–50 % bis 2030. Allein das Training von GPT-3 verschlang 1.287 MWh und verursachte 552 Tonnen CO₂. Und das war die kleine Version.

Dabei geht es nicht nur um die gewaltige energetische Vorleistung der Trainings. Es geht vor allem um die tägliche Reibung des Betriebs: Jede einzelne KI-generierte Antwort verbraucht ein Vielfaches der Energie einer klassischen Suche. Zur Kühlung verdunsten täglich Millionen Liter Trinkwasser. Die kritische Leistung zur Versorgung von Rechenzentren – GPU-Server, Kühlsysteme, Netzwerk-Infrastruktur – soll sich zwischen 2023 und 2026 auf 96 Gigawatt weltweit nahezu verdoppeln, wobei KI-Operationen allein über 40 % dieser Leistung beanspruchen könnten. Zum Vergleich: das sind Dimensionen, in denen sich ein ganzes Land wie Japan bewegt.

Boyd, der Thermodynamiker, würde das nicht moralisch bewerten, sondern strategisch: Wir externalisieren die Kosten unserer kognitiven Bequemlichkeit auf den Planeten. Jede Frage, die wir nicht selbst denken, jede Entscheidung, die wir an die Maschine delegieren, erzeugt physikalische Entropie – Wärme, die abgeführt werden muss, Wasser, das verdunstet, CO₂, das in die Atmosphäre steigt.

Pierre Sprey, Boyds Mitstreiter in der Military Reform Movement und Mitarchitekt der F-16 und A-10, hatte ein Lebensprinzip, das hier passt: „Das Ganze läuft darauf hinaus, alles nach den Ergebnissen zu beurteilen.“ Nicht an Versprechen, Prognosen oder Pressemitteilungen. Und das Ergebnis der KI-Industrie ist bisher: explodierende Kosten, explodierende Emissionen, und eine Produktivitätssteigerung, die weitestgehend ausbleibt.

Boyd würde fragen: Wenn ein System seine eigenen Überlebensbedingungen untergräbt, um kurzfristige Effizienz zu gewinnen, ist das dann Intelligenz? Oder ist das der klassische Fall eines geschlossenen Systems, das seine Entropie exportiert, bis die Umwelt kollabiert?

VI. Die ökonomische Blase

Die zweite Dimension, die Boyd analysieren würde, ist ökonomisch. Und hier wird es noch unbequemer.

Die KI-Industrie zeigt alle klassischen Symptome einer Spekulationsblase. Allein Google, Amazon, Microsoft und Meta investieren 2025 geschätzt rund 300 Milliarden Dollar in KI-Infrastruktur. Risikokapitalgeber haben 2025 bereits 161 Milliarden Dollar in KI-Start-ups gesteckt – zwei Drittel ihres gesamten Investitionsvolumens. Zehn der größten KI-Start-ups, darunter OpenAI und Anthropic, haben eine kollektive Bewertung von einer Billion Dollar erreicht. Keines von ihnen ist profitabel.

Goldman Sachs schätzt, dass KI langfristig 8 Billionen Dollar an Kapitalerträgen für US-Unternehmen generieren könnte – räumt aber gleichzeitig ein, dass die Bewertungen der KI-Unternehmen seit Einführung von ChatGPT bereits um über 19 Billionen Dollar gestiegen sind. Die Märkte haben die erhofften Gewinne also bereits eingepreist – und übertreffen sie. Der MIT-Ökonom Daron Acemoglu prognostiziert, dass KI die US-Produktivität in den nächsten zehn Jahren um lediglich 0,5 % steigern wird. Nur ein Viertel aller KI-bezogenen Aufgaben werde innerhalb eines Jahrzehnts kosteneffizient automatisierbar sein.

Das Muster ist historisch vertraut: Eisenbahnen, Telekommunikation, Dotcom – massive Infrastrukturinvestitionen, die zu Überinvestition, Überkapazität und schlechten Renditen führten. Die KI-Chips haben eine Lebensdauer von 18–36 Monaten, was die Abschreibung beschleunigt und das finanzielle Risiko erhöht. Die Unternehmen stecken in einem Gefangenendilemma: Jeder investiert, weil keiner es sich leisten kann, nicht zu investieren – auch wenn das kollektive Ergebnis suboptimal ist.

Boyd würde das ebenfalls als klassischen Fall der inzestuösen Verstärkung diagnostizieren: Die Investor:innen glauben den Prognosen der Analyst:innen, die Analyst:innen glauben den Versprechen der Unternehmen, die Unternehmen glauben ihren eigenen Pressemitteilungen. Jeder schaut auf die Karten der Bewertungen, Prognosen und Hype-Zyklen, niemand schaut auf das Gebiet der tatsächlichen Anwendungen, realen Produktivitätsgewinne und physischen Grenzen.

Chuck Spinney, Boyds Schüler und Autor des legendären Pentagon-Briefings Defense Facts of Life, hat sein ganzes Berufsleben damit verbracht, genau diese Dynamik im Verteidigungshaushalt zu dokumentieren: wie Bürokratien ihre eigenen Kosten systematisch unterschätzen, ihre eigenen Versprechen systematisch übertreiben und jede:n Kritiker:in als Feind des Fortschritts brandmarken. Die KI-Industrie wiederholt dieses Muster mit beeindruckender Präzision.

Dan Grazier, der Spinneys Arbeit am Project On Government Oversight und später am Stimson Center fortführte, hat diese Logik am Beispiel des F-35-Programms seziert: ein System, das immer teurer, immer komplexer und immer weniger einsatzfähig wird – und das trotzdem nicht gestoppt werden kann, weil zu viele Akteur:innen zu viel investiert haben, um den Irrtum einzugestehen. Die KI-Industrie befindet sich auf demselben Pfad. Die Frage ist nicht, ob die Korrektur kommt, sondern wann – und wer die Rechnung zahlt.

Boyd würde warnen: Wenn eine Industrie ihre Strategie auf Prognosen statt auf Feedback aufbaut, wenn sie ihre Modelle nicht an der Realität testet, wenn sie Kritik als „Unverständnis“ abtut – dann ist sie ein geschlossenes System. Und geschlossene Systeme kollabieren.

VII. Die Einheit, die zerbricht

Es gibt eine weitere Dimension, die Boyd betonen würde, und die in der KI-Debatte fast nie vorkommt: die Frage der Einheit.

In seinem Vortrag Organic Design for Command and Control beschrieb Boyd, was Organisationen zusammenhält. Es sind nicht die Organigramme, die Prozesshandbücher oder die Reporting-Strukturen. Es sind „implizite Verbindungen oder Bindungen, die auf Vertrauen und nicht auf Misstrauen basieren und Untergebenen große Freiheit gewähren, ihre Vorstellungskraft und Initiative einzusetzen – und dabei trotzdem im Einklang mit der Absicht der übergeordneten Kommandeure zu handeln.“

Boyd nannte das Einheit – und er meinte damit etwas Spezifisches: ein gemeinsames implizites Orientierungsmuster, das entsteht, wenn Menschen wiederholt dieselben Erfahrungen teilen, dieselben Situationen durchleben, dieselben Probleme lösen. Dieses geteilte Orientierungsmuster ermöglicht es einer Gruppe, koordiniert zu handeln, ohne dass jeder Schritt explizit befohlen werden muss. Es ist das, was eine Eliteeinheit von einer Ansammlung von Individuen unterscheidet.

Boyd formulierte es so:

„Ein Führungs- und Kontrollsystem, dessen Geheimnis darin liegt, was unausgesprochen bleibt oder nicht explizit miteinander kommuniziert wird – um Initiative auf unterer Ebene zu nutzen, aber trotzdem die Absichten der höheren Ebene zu verwirklichen und dadurch Reibung zu verringern und Zeit zu verkürzen.“

John Boyd, Organic Design for Command and Control

Das „Geheimnis“ liegt im Ungesagten. In dem, was nicht explizit kommuniziert werden muss, weil alle es implizit verstehen. Das ist Boyds Konzept von Fingerspitzengefühl – ein Begriff, den er bewusst auf Deutsch verwendete, weil er im Englischen kein Äquivalent fand.

LLMs untergraben diese Einheit auf subtile, aber tiefgreifende Weise.

Wenn Teammitglieder ihre Analyse von einer KI generieren lassen, während andere ihre eigene Einschätzung entwickeln, arbeiten sie nicht mehr mit demselben mentalen Modell. Die KI-generierte Analyse mag kohärent klingen, aber sie basiert auf statistischen Mustern, nicht auf dem geteilten Kontext des Teams. Sie weiß nichts von den unausgesprochenen Annahmen, den vergangenen Erfahrungen, den Beziehungen und Spannungen, die jede Organisation prägen. Und wenn alle Teammitglieder eine KI nutzen, hat keiner mehr ein eigenes mentales Modell – sie haben ein gemietetes.

Osinga zeigt in seiner Analyse, dass Boyd stark von Michael Polanyis Konzept des Tacit Knowledge beeinflusst war: Wissen, das nicht aussprechbar ist, das sich nicht in Texte oder Datenbanken übersetzen lässt, das nur durch gemeinsame Praxis entsteht. Ein LLM kann ausschließlich explizites Wissen verarbeiten – Text, Code, Zahlen. Das implizite Wissen, das eine Organisation zusammenhält – die Stimmung im Raum, die unausgesprochene Absicht hinter einer Formulierung, das Gefühl, dass etwas nicht stimmt – bleibt ihm prinzipiell unzugänglich.

Das Ergebnis ist eine schleichende Fragmentierung. Die Sprache klingt professionell, die Dokumente sehen poliert aus, aber das gemeinsame Verständnis erodiert. Jeder operiert mit einer leicht anderen Karte, ohne es zu merken. Die implizite Kommunikation, die Boyd für essentiell hielt, wird durch explizite, aber hohle Formalität ersetzt.

Boyd warnte explizit:

„Ohne die impliziten Bindungen oder Verbindungen, die mit ähnlichen Bildern oder Eindrücken verbunden sind, kann es weder Harmonie noch individuelle Initiative innerhalb einer kollektiven Einheit geben, daher auch keine Möglichkeit, dass ein solches organisches Ganzes zusammenhält und mit einer vielschichtigen, ungewissen und sich ständig verändernden Umgebung zurechtkommt.“

John Boyd, Organic Design for Command and Control

Eine Organisation ohne Einheit ist wie eine Armee, deren Einheiten nicht mehr dieselbe Sprache sprechen. Sie mag auf dem Papier stark aussehen. Aber im Moment der Krise, wenn schnelle, koordinierte Reaktion gefragt ist, zerfällt sie.

VIII. Menschliche Intuition als Stealth-Waffe

Hier liegt eine strategische Chance, die der Text bisher nur implizit angedeutet hat und die Boyd sofort erkannt hätte: Wenn alle Konkurrenten dieselben oder sehr ähnliche LLMs nutzen, konvergieren ihre Strategien. Algorithmen, die auf denselben Trainingsdaten basieren, produzieren ähnliche Analysen, ähnliche Empfehlungen, ähnliche Strategien. Das Ergebnis ist eine Monokultur des Denkens.

Boyd beschrieb in Patterns of Conflict das Konzept der „asymmetrischen schnellen Transienten“ – überraschende, unvorhersehbare Aktionen, die die Gegenseite desorientieren, weil sie nicht in sein Modell passen. Er formulierte das Ziel so:

„Solche Aktivität wird uns mehrdeutig (unvorhersehbar) erscheinen lassen und dadurch Verwirrung und Unordnung bei unseren Gegnern erzeugen – da unsere Gegner nicht in der Lage sein werden, mentale Bilder oder Vorstellungen zu erzeugen, die mit dem bedrohlichen und zugleich schnelleren Rhythmus oder den Mustern übereinstimmen, gegen die sie antreten.“

John Boyd, Patterns of Conflict

Wenn alle Konkurrent:innen ihre Strategie von derselben KI schreiben lassen, wird menschliche Intuition zum ultimativen Stealth-Feature. Die Gegenseite kann dich nicht modellieren, weil sein Modell auf Durchschnittsdaten basiert – und du am Rand operierst, dort, wo die Ausreißer leben, wo die Schneemobile gebaut werden.

Chet Richards hat das in Certain to Win auf den Geschäftskontext übertragen: Strategie bedeutet nicht, den Wettbewerb zu schlagen – es bedeutet, den Kund:innen echte Bedürfnisse zu erfüllen, die der Wettbewerb noch nicht einmal erkannt hat. Wer sich auf KI-generierte Marktanalysen verlässt, sieht dieselben Muster wie alle anderen. Wer selbst an die Frontlinie geht – zu den Kund:innen, in die Werkstatt, auf das Schlachtfeld –, sieht das, was kein Algorithmus sehen kann: die Lücke zwischen Karte und Gebiet.

Boyd würde sagen: Positioniere menschliche Intuition nicht als Schwäche, die durch KI kompensiert werden muss, sondern als strategischen Vorteil, den KI nicht replizieren kann. Die Organisation, die bewusst irrationale, kreative, nicht-statistische Sprünge macht – die Schneemobile baut, wo andere Skier optimieren –, wird für den KI-gesteuerten Gegner unberechenbar. Und Unberechenbarkeit ist, in Boyds Universum, der Schlüssel zum Sieg.

IX. Boyds Rat für den Umgang mit KI

Boyd würde LLMs nicht verbieten. Er war Pragmatiker, kein Luddit. Aber er würde klare Regeln aufstellen, die aus seinen strategischen Prinzipien folgen:

Nutze die Maschine als Sparringspartner, nicht als Orakel

Ein LLM kann in der Beobachtungsphase nützlich sein – als Nebenpunkt (Supporting Effort), nicht als Schwerpunkt (Main Effort). Es kann schnell Informationen synthetisieren, Muster aufzeigen, blinde Flecken identifizieren, unkonventionelle Hypothesen generieren. Aber die Orientierung – die Synthese, der Bau des Schneemobils – muss ein Mensch leisten. Ein Mensch, der seinen Kopf dafür hinhält.

Dabei sollte eine Stärke der KI nicht unterschlagen werden: Ihre Beobachtungskapazität ist der menschlichen haushoch überlegen. Ein LLM kann in Sekunden Tausende von Quellen durchforsten, Anomalien in Datensätzen identifizieren, schwache Signale aus dem Rauschen filtern. Als Sensor – als Werkzeug der Observation – ist die Maschine dem Menschen voraus.

Aber Beobachtung ist nicht Orientierung. Daten sind nicht Verständnis. Die strikte Trennung zwischen Datensammlung und Sense-Making ist keine akademische Spitzfindigkeit, sondern eine operative Notwendigkeit: Wer beides vermischt, verwechselt den Sensor mit dem Strategen.

In der deutschen Militärdoktrin, die Boyd intensiv studierte, gilt eine eiserne Regel: Der Nebenpunkt darf niemals den Schwerpunkt diktieren. Der Nebenpunkt dient dazu, den Schwerpunkt zu ermöglichen. Übertragen auf das Management heißt das: Wenn die IT (der Nebenpunkt) bestimmt, wie die Strategie (der Schwerpunkt) aussieht, läuft etwas fundamental falsch. Die Technologie muss dem Denken dienen, nicht das Denken der Technologie.

Konkret bedeutet das: Nutze die KI nicht, um Strategien zu schreiben, sondern um sie zu zerstören. Prompte nicht: „Schreibe mir eine Strategie“, sondern: „Hier ist meine Strategie. Finde die logischen Inkonsistenzen. Identifiziere die Annahmen, die ich nicht überprüft habe. Zeige mir, wo mein Modell nicht zur Realität passt.“ Nutze die KI als Werkzeug der Destructive Deduction, nicht der Creative Induction. Die Zerstörung kann sie unterstützen. Die Schöpfung muss von dir kommen.

Es müssen Prozesse etabliert werden, in denen Teams verpflichtet sind, die Vorschläge einer KI durch Red Teaming zu prüfen. Konkret empfiehlt sich eine „Regel der Zwei“: Keine strategische Entscheidung darf auf einem KI-Output basieren, ohne dass mindestens zwei unabhängige, vom Menschen entwickelte Gegenhypothesen vorliegen.

Wenn die KI-Empfehlung und die menschliche Einschätzung sofort übereinstimmen, ist das kein Zeichen von Qualität – es ist ein Warnsignal. Denn sofortige Übereinstimmung zwischen Mensch und Maschine deutet darauf hin, dass der Mensch bereits innerhalb derselben statistischen Muster denkt wie der Algorithmus. Boyd würde das als inzestuöse Verstärkung diagnostizieren. Der Output der Maschine darf nur als Ausgangspunkt für Diskussionen dienen, nicht als Endpunkt.

Bewahre die Autorität der Frontlinie

Boyd war ein Verfechter der Auftragstaktik – des Prinzips, dass die Person vor Ort, die den direkten Kontakt zum Problem hat, die Autorität haben muss, den Plan zu ändern, wenn der Plan nicht mehr zur Realität passt.

Wenn die KI sagt „Links abbiegen“, allerdings ist da eine Mauer, müssen die Fahrer:innen die Autorität haben, „Nein“ zu sagen – ohne bestraft zu werden. Wenn der Algorithmus eine Entscheidung vorschlägt, die den Sachbearbeiter:innen falsch erscheint, müssen die Sachbearbeiter:innen ein Veto einlegen können.

Die Maschine kennt die Karte. Der Mensch kennt das Gebiet. Und wenn Karte und Gebiet sich widersprechen, gewinnt das Gebiet. Immer.

Dezentralisiere mit Technologie, statt zu zentralisieren

Die Verlockung von KI ist die Zentralisierung: Wenn wir alles messen und modellieren können, können wir alles von oben steuern. Boyd würde das Gegenteil fordern: Technologie muss genutzt werden, um Informationen nach unten zu geben, damit die Menschen an der Front besser entscheiden können – nicht damit sie gar nicht mehr entscheiden.

Boyd formulierte in Organic Design: Command muss Richtung geben – klar und eindeutig. Control muss bewerten, was geschieht – ohne einzugreifen. Wenn Control zu Command wird, wenn die Bewertung zur Steuerung mutiert, bricht das System zusammen. KI als Kontroll-Instrument, das Führungskräften Echtzeit-Dashboards liefert, ist nützlich. KI als Command-Instrument, das Entscheidungen trifft, ist problematisch.

Die beste Armee ist nicht die, in der der General alles kontrolliert. Es ist die, in der jede:r Soldat:in versteht, was erreicht werden soll, und die Freiheit hat, den besten Weg dorthin zu finden. Das gilt für Unternehmen genauso.

Unterscheide lineare von nicht-linearen Schleifen

Nicht jeder OODA-Loop ist gleich. Boyd wusste das. Es gibt Schleifen, die routiniert und vorhersehbar ablaufen – Logistik, Standardprozesse, Formatierung, Datenbereinigung und so weiter. Und es gibt Schleifen, die nicht-linear sind – wie Strategieentwicklung, Krisenreaktion, Innovation und Verhandlung. In den linearen Schleifen ist Geschwindigkeit alles und Überraschung irrelevant. In den nicht-linearen Schleifen ist Orientierungsqualität alles und Geschwindigkeit sekundär.

Die strategisch kluge Nutzung von KI besteht darin, die Maschine die linearen Schleifen dominieren zu lassen – und die gewonnene Zeit in die nicht-linearen Schleifen zu investieren. Wer KI nutzt, um Berichte zu formatieren, Daten zu sortieren und Routinekorrespondenz zu erledigen, gewinnt Stunden, die er in echtes Nachdenken, in Frontlinien-Besuche, in das Gespräch mit Kund:innen investieren kann. Wer KI hingegen nutzt, um die Strategie selbst zu schreiben, hat die gewonnene Zeit nicht investiert, sondern verschenkt – er hat das Banale beschleunigt und das Wesentliche eliminiert.

Miss Lernfähigkeit, nicht nur Effizienz

Anstatt nur zu messen, wie schnell oder billig eine Aufgabe erledigt wird, sollten Organisationen Metriken entwickeln, die ihre Anpassungs- und Lernfähigkeit bewerten. Wie schnell werden Fehler erkannt und korrigiert? Wie oft wird von der KI-Empfehlung fundiert abgewichen? Wie viele Annahmen wurden im letzten Quartal revidiert?

Boyd verstand Strategie nicht als Plan, sondern als Prozess – als endlose Schleife von „Strukturieren, Entstrukturieren, Restrukturieren“, wie er es in Destruction and Creation formulierte. Eine Organisation, die nie von der KI abweicht, ist keine effiziente Organisation. Sie ist eine Organisation, die aufgehört hat, diesen Prozess zu durchlaufen. Sie hat aufgehört zu denken.

Chet Richards hat Boyds Maßstab für organisatorische Exzellenz so zusammengefasst: Nicht die Organisation gewinnt, die den besten Plan hat, sondern die, die sich am schnellsten anpasst, wenn der Plan auf die Realität trifft. Wenn KI dazu führt, dass Organisationen an ihren Plänen festhalten – weil der Algorithmus es so empfohlen hat, weil die Daten es so zeigen, weil die Black Box es so will –, dann ist KI kein Werkzeug der Agilität, sondern ein Werkzeug der Erstarrung.

Trainiere das Fingerspitzengefühl gegen die Maschine

Mike Wyly, der als Dozent an der Amphibious Warfare School des Marine Corps die Ausbildung revolutionierte, lehrte Taktik durch Szenarien ohne richtige Antwort. Er verwarf die alten Lehrpläne mit ihren vorgefertigten Musterlösungen und ersetzte sie durch Tactical Decision Games, Sandkastenübungen und Geländebegehungen – Methoden, die Marines zwangen, unter Unsicherheit zu entscheiden, Fehler zu machen und aus diesen Fehlern zu lernen. Wyly verstand, dass Manöverkriegsführung nicht durch methodisches Lehren vermittelt werden kann, sondern nur durch die Reibung der Praxis.

Organisationen müssen dieses Prinzip auf den Umgang mit KI übertragen. Sie müssen Trainingsszenarien entwerfen, in denen KI-Systeme bewusst versagen – in denen sie halluzinieren, in denen ihre Empfehlungen in die Irre führen, in denen die API-Daten veraltet oder manipuliert sind. Wer es nicht merkt, fällt durch. Das Ziel ist nicht, die KI zu diskreditieren, sondern das menschliche Urteilsvermögen gegen die verführerische Leichtigkeit der KI-Antwort zu härten.

Die entscheidende Metrik für solche Übungen ist nicht: „Wie gut hat die Führungskraft das Tool genutzt?“ Die entscheidende Metrik ist: „Wie schnell hat sie erkannt, dass das Tool falsch lag?“ Boyd nannte die Fähigkeit, Diskrepanzen zwischen Modell und Realität zu erkennen, den Kern jeder überlegenen Orientierung. Organisationen sollten diese Fähigkeit – Mismatch Recognition – als eigenständige Kompetenz definieren, messen und belohnen.

Boyd erzählte von Piloten, die ihre Checklisten wegwerfen mussten, um zu überleben – weil die Situation nicht in die Checkliste passte. Das Ziel ist, eine Intuition zu entwickeln, ein Fingerspitzengefühl dafür, wann die Karte nicht mehr zum Gebiet passt. Dieses Fingerspitzengefühl entsteht nicht durch Theorie. Es entsteht durch Praxis, durch Fehler, durch die Reibung mit der Realität. Wer diese Reibung an die Maschine delegiert, verliert die Fähigkeit, sie zu spüren.

Das Ziel solcher Übungen ist nicht nur Fehlererkennung, sondern mentale Beweglichkeit. KI generiert Standard; die Realität generiert Überraschung. Das Training muss darauf abzielen, die eigene Orientierung blitzschnell umzubauen – Boyd nannte es das „Neuformung“ der mentalen Module –, sobald die KI versagt. Wer nur lernt, Ergebnisse zu konsumieren, verlernt das schnelle Umschalten im Kopf, das in der Krise über Leben und Tod entscheidet.“

Verhindere die Makro-Schließung

Es muss eine strikte Regel geben, dass KI-Modelle niemals unkontrolliert mit Daten trainiert oder arbeiten werden dürfen, die von KI-Systemen generiert wurden. Die Forschung zum Model Collapse – dem „Fluch der Rekursion“ – zeigt eindeutig: Wenn Modelle auf ihren eigenen Outputs trainiert werden, verlieren sie die Ränder der Verteilung. Die Vielfalt schrumpft. Der Durchschnitt dominiert. Die Ausreißer verschwinden.

Boyd würde das als Todesurteil für jedes adaptive System bezeichnen. Denn die Ausreißer – gerade die unerwarteten Signale, die Anomalien, die Abweichungen – sind genau das, was ein offenes System braucht, um seine Orientierung zu aktualisieren. Ein System, das seine eigenen Ränder abschneidet, ist ein System, das seine eigene Zukunft abschneidet.

Konkret bedeutet das: Organisationen müssen Informations-Schleusen bauen – wie Schotten in einem U-Boot, die verhindern, dass ein Leck das ganze Schiff versenkt. Daten, die in die Orientierung fließen – in die Entscheidungsebene –, müssen auf ihren Ursprung zertifiziert sein. Synthetische Daten müssen strikt von empirischen Beobachtungen getrennt werden. Der Zugang zu echten menschlichen Daten – ungeglättet, unbereinigt, mit all ihren Widersprüchen und Überraschungen – ist keine nostalgische Forderung, sondern eine thermodynamische Notwendigkeit.

Berechne die wahren Kosten

Boyd, der Thermodynamiker, würde darauf bestehen, dass die ökologischen und ökonomischen Kosten von KI in jede Entscheidung einfließen. Nicht als PR-Übung oder als ESG-Bericht für Investor:innen; als strategische Notwendigkeit.

Ein System, das seine eigenen Überlebensbedingungen untergräbt, ist kein intelligentes System. Es ist ein System, das seine Entropie exportiert – auf den Planeten, auf zukünftige Generationen, auf die, die die Rechnung nicht sehen. Das ist keine Strategie; es ist Selbstmord auf Raten.

Pierre Sprey würde hinzufügen: Beurteile alles an den Ergebnissen. Nicht an den Versprechen, an den Bewertungen oder an den Prognosen: an dem, was tatsächlich passiert, wenn die Maschine auf die Realität trifft.

X. Die Frage, die bleibt

Boyd starb arm und weitgehend vergessen. Das Pentagon, das er jahrzehntelang beraten hatte, ignorierte seine späten Warnungen. Die Bürokratie, die er bekämpft hatte, überlebte ihn.

Aber seine Ideen sind unsterblich, weil sie auf Physik basieren, nicht auf Mode. Der Zweite Hauptsatz der Thermodynamik gilt noch immer. Gödels Unvollständigkeitssatz gilt noch immer. Geschlossene Systeme zerfallen noch immer. Und Menschen, die ihre Urteilskraft abgeben, verlieren noch immer die Fähigkeit, sich anzupassen.

Grant Hammond, der Boyds intellektuelle Biografie The Mind of War schrieb, beschreibt Boyd als einen Denker, der nicht nach einem bestimmten Optimum suchte, sondern nach den universellen Prozessen und Merkmalen, die Krieg, Strategie und das Spiel von Gewinnen und Verlieren charakterisieren. Boyd suchte, wie Osinga es formuliert, „eine ausgewogene, breite und kritische Sichtweise anstatt der doktrinären.“ Er wollte keine Doktrin. Er wollte ein Werkzeug zum Denken.

Genau das fehlt in der KI-Debatte. Wir haben Doktrinen – „KI wird alles verändern“, „KI ist nur ein Werkzeug“, „KI ist existenzielle Gefahr“ – aber kein Werkzeug zum Denken über KI. Boyd liefert dieses Werkzeug. Gar nicht mal, weil er KI vorhergesehen hätte, sondern weil er die universellen Dynamiken verstand, die jedes System betreffen: Offenheit gegen Schließung, Anpassung gegen Erstarrung, Lernen gegen Selbstbetrug, Verantwortung gegen Verantwortungslosigkeit.

Die Frage, die Boyd uns hinterlässt, ist nicht: „Sollen wir KI nutzen?“ Die Frage ist: „Wer trägt die Verantwortung, besonders, wenn es schiefgeht?“

Wenn die Antwort „niemand“ ist – wenn die Verantwortung in der Black Box verschwindet, wenn die ökologischen Kosten externalisiert werden, wenn die ökonomische Blase platzt und die Falschen zahlen – dann haben wir bereits verloren. Nicht weil die Maschine böse ist: Ein System ohne Verantwortung ist ein System ohne Lernen. Und ein System ohne Lernen ist ein System, das stirbt.

Boyd würde sagen: Die Maschine kennt keine Moral, keine Angst und keine Überraschung. Sie ist perfekt für eine statische Welt, die nicht existiert. In der echten Welt gewinnen die, die sich schneller anpassen. Und das können nur Menschen mit Skin in the Game – Menschen, die die Konsequenzen ihrer Entscheidungen tragen, die den Schmerz der Zerstörung alter Modelle spüren, die das Fingerspitzengefühl haben, das keine API liefern kann.

Die KI-Industrie verspricht uns, dass wir das Denken auslagern können. Boyd würde antworten: Wer das Denken auslagert, hat bereits aufgehört zu existieren. Er ist nur noch eine Funktion in einem System, das er nicht mehr versteht.

Die Wahl liegt bei uns. Wir können die Maschine als Werkzeug nutzen, das unsere Urteilskraft schärft – als Sparringspartner für die Zerstörung unserer Vorurteile, als Nebenpunkt in einem Kampf, dessen Schwerpunkt der menschliche Geist bleibt. Oder wir können sie als Krücke nutzen, die unsere Urteilskraft ersetzt – und damit die Fähigkeit verlieren, Schneemobile zu bauen, wenn die Welt neue Schneemobile braucht.

Die erste Option ist anstrengend. Die zweite ist bequem. Boyd wusste, welche Option gewinnt. Er wusste auch, welche Option überlebt.