Intelligenz ohne Kopf

Wenn wir an Künstliche Intelligenz denken, stellen wir uns oft eine monolithische Entität vor: ein Rechenzentrum, das riesige Datenmengen verarbeitet und daraus die eine, korrekte Antwort ableitet. Wir bauen unsere Unternehmen nach einem ähnlichen Bild: ein CEO an der Spitze, der die Richtung vorgibt, und eine Pyramide darunter, die ausführt. Wir bauen unsere Staaten so. Dahinter steht die Annahme, dass Intelligenz eine Frage der Skalierung ist – mehr Daten, mehr Rechenkraft, mehr Zentralisierung ergeben mehr Wahrheit.

Das ist eine Wette auf den Monolithen. Sie ist riskant, denn wenn der Monolith sich irrt, irren sich alle. Wenn die Verbindung zum Server abreißt, ist die Intelligenz weg. Es ist die Fragilität, vor der Nassim Taleb warnt.

Doch abseits dieser technokratischen Logik existiert eine andere Form von Intelligenz. Sie ist älter, wirkt auf den ersten Blick chaotischer, ist aber mathematisch oft robuster.

Sie erinnert an Stanisław Lems Science-Fiction-Klassiker Der Unbesiegbare. Dort scheitert das mächtigste Raumschiff der Menschheit nicht an einem feindlichen Superhirn, sondern an einer Wolke winziger Kristalle. Einzeln sind sie tote Materie, aber zusammen bilden sie eine reaktive Intelligenz, die jede zentrale Strategie ausmanövriert. Lem nannte das „Nekroevolution“ – wir nennen es heute dezentrale Robustheit.

Ein aktuelles Paper von Forscher:innen der Polytechnique Montréal und dem Mila AI Institute liefert hierzu eine interessante Beobachtung. Sie analysierten, wie Bienenschwärme Entscheidungen treffen – etwa bei der Suche nach einem neuen Nest. Ihr Ergebnis: Dieser Schwarm von kognitiv begrenzten Insekten, die nur simplen, lokalen Regeln folgen, verhält sich mathematisch äquivalent zu einem hochentwickelten Reinforcement-Learning-Agenten.

Der Schwarm ist der Computer. Aber er hat keinen Prozessor.

I

Stell dir vor, es muss eine Entscheidung getroffen werden: Welches Haus kaufst du? In welche Technologie investierst du? Welchen Strategiewechsel braucht das Land? Unser Instinkt im Spätkapitalismus legt nahe: Wir holen die kompetentesten Expert:innen, geben ihnen alle Informationen und lassen sie das Problem lösen.

Die Biene macht das Gegenteil. Wenn ein Schwarm ein neues Zuhause braucht, schickt er hunderte Kundschafterinnen aus. Jede fliegt in eine andere Richtung, ohne Gesamtplan, ohne Wissen über die anderen. Findet eine Biene einen potenziellen Nistplatz, bewertet sie ihn lokal anhand einfacher Kriterien: Ist er trocken? Groß genug? Sicher?

Kehrt sie zurück, führt sie den Schwänzeltanz auf. Dauer und Intensität des Tanzes kodieren die Qualität des Fundes. Das Entscheidende passiert hier: Die anderen Bienen analysieren keine Daten und halten keine Meetings ab. Sie schauen zu. Wenn sie einen Tanz sehen, der besonders energetisch ist (ein starkes Signal), fliegen sie dorthin und prüfen es selbst. Sind sie ebenfalls überzeugt, tanzen sie bei ihrer Rückkehr auch.

Es ist ein Prozess der Ansteckung, basierend auf Stigmergie. Gute Optionen rekrutieren exponentiell mehr Tänzerinnen. Schlechte Optionen finden keine Nachahmerinnen und das Signal verebbt. Sobald der Lärmpegel für eine Option einen Schwellenwert – ein „Quorum“ – erreicht, hebt der ganze Schwarm ab.

Die Forscher nennen den zugrundeliegenden Algorithmus „Maynard-Cross Learning“. Der Punkt ist: Keine einzelne Biene hat die Entscheidung getroffen oder kannte alle Optionen. Dennoch wählt der Schwarm zuverlässiger den besten Nistplatz aus, als es eine einzelne Agentin könnte.

II

Das Paper „The Hive Mind is a Single Reinforcement Learning Agent“ ist relevant, weil es die vage Vorstellung von Schwarmintelligenz durch eine mathematische Definition ersetzt.

Es zeigt, dass die einfache Regel „Imitiere den, der erfolgreich wirkt“ (das Weighted Voter Model) dazu führt, dass der Schwarm als Ganzes lernt. Ein:e zentrale:r Agent:in – sei es eine KI oder ein Diktator – muss seriell arbeiten. Sie prüfen Option A, dann B, dann C. Ihr Flaschenhals ist die eigene Bandbreite.

Schon Leo Tolstoi versuchte im Epilog zu Krieg und Frieden, diese Illusion der zentralen Lenkung zu zerstören. Er argumentierte, dass Napoleon nicht die Schlachten lenkte, sondern dass historische Ereignisse das Integral aus Millionen winziger, individueller Entscheidungen der Soldaten sind. Die „Königs-Logik“ ist eine narrative Vereinfachung; die Realität ist, mathematisch gesehen, ein Schwarmphänomen.

Der Schwarm arbeitet parallel. Er ist ein Löser für das Multi-Armed-Bandit-Problem, der tausende Hebel gleichzeitig zieht. Während der zentrale Agent noch Daten über Option A sammelt, haben die Kundschafter des Schwarms bereits Option D, E und F verworfen und konzentrieren sich auf G.

Das entspricht Ashbys Gesetz der erforderlichen Varietät: Nur ein System, das selbst Varietät besitzt (viele autonome Agenten), kann die Varietät der Welt (komplexe Probleme) bewältigen. Der Monolith versucht, die Komplexität zu komprimieren, um sie verarbeitbar zu machen – ein Prozess, den James C. Scott als „Lesbarmachung“ beschrieb, der aber zwangsläufig Informationen vernichtet. Der Schwarm hingegen absorbiert die Komplexität, indem er sich über sie ausbreitet.

III

Wir haben unsere Zivilisation darauf ausgerichtet, Monolithen zu bevorzugen. Das Westfälische System war der Versuch, die Welt in klare, souveräne Container zu packen. Das moderne Unternehmen ist der Versuch, den Markt durch zentrale Planung zu ordnen.

Wir optimieren auf Effizienz, nicht auf Resilienz. Ein Schwarm wirkt auf den ersten Blick ineffizient: Hunderte Bienen fliegen zu schlechten Nistplätzen – verschwendete Energie. Aber genau diese „Verschwendung“ stellt sicher, dass der eine, optimale Nistplatz nicht übersehen wird.

In der Spionage-Literatur finden wir dieses Motiv bei Mick Herrons Slow Horses. Während die zentrale Geheimdienstbehörde („The Park“) mit Hochtechnologie und Arroganz agiert und oft das Offensichtliche übersieht, sind es die ausgestoßenen Agent:innen im „Slough House“, die durch chaotische Erkundung vor Ort die Wahrheit finden. Der Monolith optimiert die Erkundung weg und wird dadurch blind für das Neue.

Das ist oft der Grund, warum Systeme sterben: Sie hören auf zu erkunden und verwalten nur noch das Bekannte. Sie werden zu Optimierungsmaschinen in einer sich ändernden Welt, gefangen in dem, was Gregory Bateson als „Rigidität“ bezeichnete.

IV

Wenn wir akzeptieren, dass wir in eine Ära fragmentierter Autorität eintreten, in ein Neomittelalter, dann ist der Bienen-Algorithmus kein Naturschauspiel, sondern eine funktionale Strategie.

Starlink nutzt dieses Prinzip: Tausende kleine, günstige Satelliten statt weniger großer Ziele. Fällt einer aus, schließt das Netzwerk die Lücke. Es ist ein Gewebe, kein Turm. Open-Source-Software funktioniert ähnlich: Linux ist nicht das Produkt eines genialen Architekten, der jede Zeile Code geplant hat. Es ist das Ergebnis von Millionen von Beiträgen – Entwickler:innen, die Code schreiben, testen und, wenn er funktioniert, von anderen übernommen werden. Die Donut-Ökonomie in Amsterdam folgt dieser Logik: Die Stadt gibt keinen detaillierten Fünfjahresplan vor, sondern setzt Rahmenbedingungen (den Donut) und lässt hunderte Initiativen experimentieren.

Es entspricht dem, was der Biologe Michael Levin als die Intelligenz des Gewebes beschreibt: Jede Einheit ist lokal kompetent, und das Ganze lernt durch die Signale zwischen den Teilen.

V

Die Erkenntnis aus dem Bienen-Paper ist eine Korrektur unseres Selbstbildes, aber eine nützliche. Wir müssen nicht super-intelligent sein, um als Gesellschaft zu überleben. Wir müssen keine Götter sein und nicht einmal moralisch perfekt. Die Bienen sind es auch nicht; sie sind simple, opportunistische Wesen.

Aber sie operieren innerhalb eines Protokolls, das ihre individuelle Beschränktheit in kollektive Kompetenz verwandelt. Dieses Protokoll fordert, zu erkunden und sich die Realität anzusehen, statt in der Echokammer zu bleiben. Es verlangt, Signale zu senden und eine ehrliche Einschätzung der Qualität zu teilen, statt das zu sagen, was erwartet wird. Und es setzt auf konstruktive Imitation: zu schauen, was funktioniert, und es nachzumachen, statt auf dem eigenen Fehler zu beharren.

Unser Problem ist, dass unsere heutigen Protokolle – in sozialen Medien oder Unternehmenshierarchien – oft das Gegenteil bewirken. Sie belohnen nicht das Signal über Qualität, sondern das Signal über Zugehörigkeit. Sie fördern nicht die Imitation von Lösungskompetenz, sondern die Imitation von Meinung.

Wir haben den Bienen-Algorithmus beschädigt, indem wir Stigmergie durch Ideologie ersetzt haben. Doch die Mathematik bleibt bestehen: Ein System, das dezentral lernt, adaptiert schneller als ein System, das zentral befiehlt. Die Zukunft gehört nicht dem größten Gehirn. Sie gehört dem fähigsten Schwarm.