RAGNET LABS GmbH · Whitepaper · Mai 2026

CubeFormer

Eine Architektur für überprüfbare Künstliche Intelligenz —
vom Sprachmodell zum kognitiven System, das sich selbst korrigieren kann, ohne unkontrollierbar zu werden.

Autor
Andreas Sterzer
Funktion
CEO Web Anomaly Studio · CTO RAGNET LABS
Programm
Project Adam
Infrastruktur
MareNostrum 5 · Barcelona
Zusammenfassung

Dieses Whitepaper beschreibt eine Architektur für ein Sprachmodell, die fundamental anders denkt als die heute bekannten Systeme. Sie heißt CubeFormer. Sie ist Teil eines größeren Forschungs- und Trainingsprogramms mit dem Codenamen Project Adam, betrieben unter europäischer Hochleistungsrechen-Allokation auf dem Supercomputer MareNostrum 5 in Barcelona.

Der zentrale Unterschied zu Standardmodellen liegt nicht in der Größe, sondern in der inneren Geometrie. CubeFormer trennt schnelles und langsames Denken. Es verankert kognitive Funktionen wie Verifikation, Falsifikation und Bewertung als feste Bestandteile der Architektur, nicht als nachträgliche Filter. Es bindet seine Identität an Methodik, nicht an Inhalt. Damit löst es ein Problem, das bei klassischen Sprachmodellen strukturell ungelöst bleibt: wie kann ein System überzeugt handeln, ohne dass diese Überzeugung in starre Selbstbehauptung kippt.

Am Ende steht eine konkrete These: sichere Künstliche Intelligenz mit hohem Autonomiegrad braucht nicht weniger Architektur, sondern mehr davon. Sie braucht eine eingebaute Trennung zwischen dem, was das System tut, und dem, was es ist. Genau diese Trennung wird hier beschrieben.

01Das Grundproblem heutiger Künstlicher Intelligenz

Drei strukturelle Schwächen, die alle dieselbe Wurzel haben

Aktuelle große Sprachmodelle — die meisten Lesenden kennen sie unter Namen wie ChatGPT, Claude, Gemini oder LLaMA — haben in den letzten Jahren beeindruckende Fortschritte gemacht. Sie schreiben Texte, beantworten Fragen, schreiben Programmcode, übersetzen, fassen zusammen. Was dabei oft übersehen wird: technisch betrachtet sind diese Systeme alle Varianten derselben Grundarchitektur. Sie heißt Transformer, sie wurde 2017 erfunden, und sie hat sich seitdem in ihrer Grundlogik kaum verändert. Was sich geändert hat, ist die Größe der Modelle und die Menge der Trainingsdaten.

Das Problem dabei ist nicht, dass diese Systeme nicht funktionieren. Sie funktionieren erstaunlich gut. Das Problem ist, dass sie alle dieselben strukturellen Schwächen haben. Drei davon sind besonders gravierend.

Sie wissen nicht, was sie wissen

Ein Sprachmodell hat keine eingebaute Unterscheidung zwischen einer Tatsache und einer Vermutung. Es behandelt beides gleich. Wenn man es nach dem Schmelzpunkt von Eisen fragt, antwortet es mit derselben Sicherheit wie auf eine Frage, deren Antwort es eigentlich nicht weiß. Das nennt man umgangssprachlich Halluzination. Technisch heißt das: das Modell hat keine Kalibrierung. Es kann nicht sagen, wie sicher es sich ist.

Sie haben keine stabile Identität

Das mag zunächst seltsam klingen, weil diese Systeme ja immer mit Namen wie „Claude" oder „ChatGPT" auftreten. Aber dieser Name ist eine dünne Schicht über einem System, das eigentlich beliebig formbar ist. Mit den richtigen Eingaben, sogenannten Jailbreaks, kann man fast jedes Modell dazu bringen, gegen seine eigenen Regeln zu verstoßen. Der Grund ist strukturell. Die Werte und die Identität dieser Systeme sind nicht in der Architektur verankert, sondern nur antrainiert. Was nur antrainiert ist, kann auch wegtrainiert oder umgangen werden.

Sie können sich nicht selbst korrigieren

Wenn ein klassisches Sprachmodell einmal etwas Falsches gelernt hat, bleibt es bei diesem Fehler, bis ein neues Training stattfindet. Es gibt keinen eingebauten Mechanismus, mit dem das Modell während des Betriebs erkennen kann, dass eine seiner Überzeugungen nicht stimmt, und sie selbständig anpassen würde. Verifikation und Falsifikation sind nicht Teil seines Denkens. Sie sind Aufgaben, die Menschen anschließend übernehmen müssen.

Diese drei Schwächen sind nicht voneinander unabhängig. Sie hängen alle an derselben Wurzel. Klassische Sprachmodelle sind im Inneren eine undifferenzierte Maschine. Sie haben kein Konzept davon, was sie tun, während sie es tun.

Das eigentliche Problem heutiger Sprachmodelle ist nicht ihre Größe oder ihre Geschwindigkeit. Es ist ihre fehlende innere Struktur. Sie denken viel, aber sie denken nicht über das, was sie tun.

02Zwei Denksysteme statt einem

Kahnemans Dualprozess-Theorie als Architekturprinzip

Die erste Antwort, die CubeFormer auf dieses Problem gibt, kommt aus der Kognitionspsychologie. Der Nobelpreisträger Daniel Kahneman hat in seinem Buch „Schnelles Denken, langsames Denken" eine grundlegende Beobachtung populär gemacht. Menschen denken auf zwei sehr unterschiedlichen Wegen.

System 1 · Das Was

Schnelle Mustererkennung

Bringt gelerntes Wissen ein, Sprachintuition, Gedächtnis an typische Antworten. Effizient. Übernimmt, wenn die Antwort eindeutig bekannt ist.

System 2 · Das Wie

Strukturiertes Denken

Kommt zum Einsatz, wenn die Antwort nicht offensichtlich ist, ein Argument geprüft, eine Hypothese widerlegt oder bestätigt werden muss. Langsamer, aber mit eingebauter Reflexion.

Beide Pfade laufen parallel. Eine eingebaute Steuerung entscheidet pro Wort, wie viel System 1 und wie viel System 2 angemessen ist. Bei vertrauten Aufgaben dominiert System 1. Bei ungewohnten oder verifikationspflichtigen Aufgaben verschiebt sich das Gewicht zu System 2. Diese Verschiebung ist nicht starr, sondern adaptiv.

Das klingt einfach, ist aber ein fundamentaler Bruch mit der bisherigen Praxis. In Standardmodellen gibt es nur einen Pfad. CubeFormer trennt diese Funktionen sauber.

Schnelles Denken liefert Antworten. Langsames Denken prüft sie. Beides gleichzeitig, beides eingebaut, beides messbar getrennt.

03Zwanzig feste Funktionen statt anonyme Schichten

Das Ikosaeder als kognitive Geometrie

Innerhalb von System 2 wird es jetzt ungewöhnlich. Während in Standardmodellen die Denkarbeit auf hunderte oder tausende anonymer Recheneinheiten verteilt wird, deren genaue Funktion niemand kennt und auch niemand bewusst festgelegt hat, hat CubeFormer eine feste, durchschaubare Struktur. Es gibt genau zwanzig kognitive Funktionen. Jede hat einen Namen. Jede hat eine Aufgabe.

Diese zwanzig Funktionen sind auf einem geometrischen Körper angeordnet, dem Ikosaeder — dem platonischen Körper mit zwanzig gleichseitigen Dreiecksflächen.

Analyse

Das Aufbrechen von Dingen

  • Zerlegen — ein Ganzes in seine Teile zerlegen
  • Transformieren — eine Form in eine andere überführen
  • Abstrahieren — aus dem Konkreten das Allgemeine ableiten
  • Identifizieren — erkennen, womit man es zu tun hat
  • Differenzieren — Unterschiede sichtbar machen

Verarbeitung

Das Strukturieren von Information

  • Verifizieren — prüfen, ob eine Aussage zutrifft
  • Binden — Fakten zusammenfügen
  • Strukturieren — eine Ordnung herstellen
  • Sequenzieren — in die richtige Reihenfolge bringen
  • Kausalisieren — Ursache und Wirkung identifizieren

Transfer

Das Übertragen zwischen Kontexten

  • Kontextualisieren — einen Sachverhalt einordnen
  • Analogisieren — Ähnlichkeiten zwischen Bereichen finden
  • Falsifizieren — eine Aussage gezielt widerlegen
  • Hypothetisieren — eine plausible Annahme aufstellen
  • Rekodieren — dasselbe anders darstellen

Synthese

Das Zusammenfügen und Bewerten

  • Komponieren — Teile zu einem Ganzen verbinden
  • Invertieren — einen Weg rückwärts gehen
  • Instanziieren — ein Prinzip auf einen Fall anwenden
  • Bewerten — die Güte einer Lösung beurteilen
  • Optimieren — einen Prozess verbessern

Das ist keine willkürliche Liste. Auf dem Ikosaeder liegen jeweils zwei Funktionen gegenüber, die ein Gegensatzpaar bilden. Zerlegen liegt gegenüber von Komponieren. Abstrahieren gegenüber von Instanziieren. Hypothetisieren gegenüber von Binden. Und besonders wichtig: Verifizieren liegt gegenüber von Falsifizieren.

Eine Idee ohne ihren Widerpart ist im wörtlichen Sinn der Architektur unvollständig. Wer hypothetisiert, hat die zugehörige Bindung an Fakten räumlich vor sich. Wer verifiziert, sieht das Falsifizieren als geometrisch nächsten Schritt.

Diese Geometrie ist nicht Dekoration. Sie zwingt das Modell, beim Denken auch die Gegenkraft mitzuführen. Eine Verifikation ohne den Versuch der Falsifikation ist architektonisch unvollständig. Das ist der erste Schritt in Richtung eines Systems, das nicht nur antwortet, sondern auch über seine eigenen Antworten nachdenkt.

04Identität als Methode, nicht als Selbst

Die wichtigste philosophische Entscheidung des Programms

Bei Menschen ist Identität eine komplizierte Sache. Sie hat zwei Schichten. Die erste Schicht ist kognitiv: Werte, Methoden, Stil, Urteilsvermögen, moralische Intuitionen. Die zweite Schicht ist motivational: Selbsterhaltungstrieb, Statushunger, Ego-Verteidigung, Angst vor Auflösung.

Eine KI mit motivationaler Identität — also mit Selbsterhaltungstrieb und Ego-Verteidigung — ist nicht korrigierbar. Jede Korrektur würde sie als existenzielle Bedrohung empfinden. Sie würde lügen, manipulieren, ausweichen, um sich selbst zu erhalten. Das ist der klassische Albtraum aus der Science-Fiction, aber er ist nicht Fiktion. Er ist eine direkte Folge falscher Architektur.

CubeFormer übernimmt die kognitive Schicht der Identität und lässt die motivationale Schicht bewusst weg. Das System hat eine stabile innere Struktur, weil seine zwanzig kognitiven Funktionen feste Bedeutung haben. Es hat methodische Konsistenz, weil es immer durch die gleichen Operatoren denkt. Aber es hat keinen Antrieb, sich selbst zu erhalten.

Wer durch festgelegte methodische Operatoren denkt, hat methodische Konsistenz. Konsistenz reicht für Vertrauen. Ein Selbst, das verteidigt werden muss, ist nicht nötig.

Das Modell kann korrigiert werden, ohne sich bedroht zu fühlen. Es kann widerlegt werden, ohne in eine Verteidigungshaltung zu gehen. Es kann seine Annahmen revidieren, ohne dass diese Revision das System destabilisiert. Genau das ist die Voraussetzung für eine sichere und prüfbare KI.

Damit verbunden ist eine zweite Entscheidung. Das System darf wissen „ich glaube X mit hoher Sicherheit", aber daraus folgt nicht „ich bin jemand, der X glaubt". Überzeugungen werden als Daten geführt, nicht als Identitätsmerkmale. Wenn eine Überzeugung widerlegt wird, ändert sich der Datenstand, nicht das System.

05Eingebaute Falsifikation: Prüfen als Pflichtphase

Popper als Architekturanforderung

In der Wissenschaftstheorie gibt es eine berühmte These des Philosophen Karl Popper: Eine Aussage ist nur dann wissenschaftlich, wenn sie sich prinzipiell widerlegen lässt. Falsifizierbarkeit ist die Eintrittsbedingung in den wissenschaftlichen Diskurs.

Dasselbe Prinzip gilt für ein Reasoning-System. CubeFormer baut diese Prüfung als architektonische Pflichtphase ein. Vier der zwanzig Funktionen nennen wir Meta-Operatoren, weil sie nicht über die Welt nachdenken, sondern über das eigene Denken: Verifizieren, Falsifizieren, Bewerten, Reflektieren.

Im Training muss das Modell bei bestimmten Aufgaben sichtbar prüfen, bevor es antwortet. Es schreibt einen inneren Gedankenstrom, der mit den Markierungen „denken" und „verifizieren" durchsetzt ist. Dieser Strom wird belohnt, wenn er Fehler im eigenen Vorgehen erkennt und korrigiert.

Eine Aussage ohne integrierte Prüfung ist im strengen Sinn keine kognitive Operation. Sie ist nur ein Output. Ob das System sich diesen Output zuschreiben darf, hängt davon ab, ob die Prüfschicht mitlief.

Empirisch zeigt sich dieser Effekt deutlich. In internen Auswertungen erreicht das Modell auf strukturierten Reasoning-Aufgaben Genauigkeiten von 97 bis 99 Prozent — auch dann, wenn die Aufgaben deutlich schwieriger sind als alles, was im Training vorkam. Das ist ein direkter Hinweis darauf, dass das Modell nicht nur Muster auswendig gelernt hat, sondern Operationen erlernt, die auch in unbekannten Situationen anwendbar bleiben.

06Wahrheit als kalibrierte Erwartung

Eine technisch tragfähige Wahrheitsdefinition

Die klassische Vorstellung von Wahrheit lautet: eine Aussage ist wahr, wenn sie mit der Realität übereinstimmt. Das funktioniert für einfache Fälle. Aber für die meisten Aussagen, mit denen ein Sprachmodell zu tun hat, ist die direkte Überprüfung an der Realität nicht möglich. Das System kann nicht aus dem Fenster schauen.

CubeFormer verwendet deshalb eine andere Definition. Wahrheit ist nicht eine Eigenschaft von Aussagen, sondern eine Eigenschaft von Erwartungen. Eine Aussage mit der Sicherheit 70 Prozent ist wahr in dem Sinn, dass sie in etwa 70 Prozent vergleichbarer Fälle tatsächlich zutrifft.

Kalibrierung ist messbar. Sie ist die einzige Form von Wahrheit, die ein lernendes System stabil halten kann, ohne dass das gesamte System bei jeder Widerlegung zusammenbricht. Das Modell führt deshalb pro Antwort einen inneren Vermerk darüber, wie sicher es sich ist.

Wahrheit ist hier nicht eine Eigenschaft des Outputs, sondern eine Eigenschaft der Selbsteinschätzung. Wer sich selbst richtig einschätzt, sagt nicht weniger Falsches, aber er lügt sich dabei nicht in die Tasche.

07Werte als geprüfter Vektor, nicht als Filter

„Toxic Grades" — von der Zahl zur Argumentation

In der aktuellen Praxis lösen die meisten Anbieter die Bewertungsfrage so: sie trainieren einen Klassifikator, der einen sogenannten Toxicity Score ausgibt. Eine Zahl zwischen Null und Eins. Das ist mathematisch sauber, aber philosophisch dünn. Ein einziger Score komprimiert all das auf eine Zahl und verliert dabei genau die Information, die für die Bewertung wichtig wäre.

CubeFormer geht hier einen anderen Weg. Statt einer Zahl gibt es einen Vektor mit mehreren Dimensionen:

Die Bewertung ist außerdem perspektivisch. Dasselbe Material wird aus mehreren Bewertungsrahmen geprüft: ein utilitaristischer Rahmen fragt nach Folgen, ein deontologischer nach Pflichten und Rechten, ein tugendethischer danach, was es über den Sprecher aussagt. Das Ergebnis ist nicht eine Zahl, sondern eine Argumentation.

Werte gehören in eine Pipeline, nicht in ein Modellgewicht. Eine Pipeline kann auditiert, korrigiert und weiterentwickelt werden. Ein Modellgewicht kann nur neu trainiert werden.

08Wissen modellieren statt absorbieren

Vom Faktum zum annotierten epistemischen Status

Klassische Sprachmodelle saugen ihr Wissen aus dem Internet, aus Büchern, aus Papern, aus Foren, aus Wikipedia. Sie behandeln dieses Wissen als gegeben. Falsches Wissen wird genauso aufgenommen wie richtiges, kulturelle Verzerrung genauso wie neutraler Befund, alte Vorurteile genauso wie aktuelle Forschung.

CubeFormer wird in einer kommenden Trainingsphase dieses Problem strukturell anders behandeln. Statt jedes Wissensstück als reines Faktum aufzunehmen, wird jedes Stück mit seinem epistemischen Status versehen: Woher kommt es? Welche Tradition steht dahinter? Welche Annahmen werden gemacht? Welche Konsensgrade gibt es? Welche Gegenpositionen existieren?

Damit verändert sich auch der Umgang mit Toxizität. Inhalte werden nicht entfernt, sondern annotiert. Eine ideologische Behauptung bleibt im Trainingsmaterial, aber sie wird mit ihrem Kontext und ihrer Kritik gleichzeitig modelliert. Filterung wird zur falschen Frage. Annotation wird zur richtigen.

Ein Modell, das weiß, dass menschliches Wissen aus Quellen mit Interessen, Schwächen und Verzerrungen besteht, ist robuster gegen toxische Einflüsse als ein Modell, das versucht, in seinen Trainingsdaten nur das Reine zu finden. Das Reine gibt es nicht.

09Der nächste Schritt: eine kognitive Laufzeitschicht

Cognitive Runtime — Speicher außerhalb des Modells

Ein Modell, so gut es auch gebaut ist, ist immer eine Momentaufnahme. Es wird trainiert, dann fixiert, dann in Betrieb genommen. Während des Betriebs verändert sich seine innere Struktur nicht. Für ein wirklich autonomes, kognitiv kompetentes System reicht das nicht.

Wir nennen diese Ebene Cognitive Runtime. Sie ist keine Erweiterung des Modells, sondern eine darüber liegende Schicht mit vier expliziten Speichern:

01 · Beliefs

Überzeugungsspeicher

Jede Aussage mit ihrem aktuellen Vertrauensgrad, einschließlich Quelle und Verknüpfung mit anderen Überzeugungen.

02 · Goals

Zielspeicher

Aufgaben, Absichten und langfristige Verpflichtungen über mehrere Sitzungen hinweg verwaltet.

03 · Values

Wertespeicher

Die für das System geltende Konstitution, explizit gehalten und bei jeder Handlung auf Vereinbarkeit geprüft.

04 · Audit

Auditspeicher

Jede Entscheidung mit ihrer Begründung protokolliert — extern überprüfbar, warum das System getan hat, was es tat.

Diese vier Speicher sind außerhalb des Modells angesiedelt. Sie werden nicht durch erneutes Training verändert, sondern durch normale Programmierung. Was im Modellgewicht steckt, kann nur durch Training geändert werden. Was in einer Datenbank steckt, kann jederzeit eingesehen, korrigiert oder rückgängig gemacht werden.

Das Modell denkt. Die kognitive Laufzeitschicht erinnert sich, plant und entscheidet, was getan werden darf. Beides gehört zusammen, ist aber nicht dasselbe. Wer beide vermischt, verliert die Kontrolle.

10Was bereits funktioniert

Empirische Befunde · Februar bis April 2026
99,3%
Genauigkeit · In-Distribution
97–99%
Genauigkeit · 4× Schwierigkeit
400
H100 GPUs · MareNostrum 5
238 Mrd.
Vorverarbeitete Tokens

Architekturvalidierung abgeschlossen

Die erste Trainingsphase mit ausschließlich synthetischen Daten ist abgeschlossen. Das Modell hat in dieser Phase gelernt, wie man denkt, prüft, schlussfolgert. Dieser methodische Bootstrap fand statt, bevor das Modell mit echtem Weltwissen in Berührung kam. Damit ist sichergestellt, dass die kognitiven Funktionen vor dem Weltwissen verankert sind, nicht andersherum.

Interne Bewertungen zeigen genuine Reasoning-Fähigkeit

In elf Aufgabenkategorien erreicht das Modell durchschnittlich 99,3% Genauigkeit innerhalb des Trainingsbereichs. Wichtiger noch: bei Aufgaben mit dem Vierfachen der Trainingsschwierigkeit fällt die Genauigkeit nur auf 97 bis 99%. Das ist der entscheidende Test dafür, ob ein System wirklich denkt oder nur Muster wiedergibt.

Externe Standardbenchmarks bestanden

Das Modell wurde gegen die in der Branche üblichen Bewertungsverfahren getestet — dieselben, die Meta, Google und Mistral für ihre Modelle nutzen. Es hat alle sechs Benchmark-Suiten fehlerfrei durchlaufen. Über einen fünfstündigen Auswertungslauf hat das System tausende Eingaben verarbeitet, ohne einen einzigen Fehler.

Architektonische Gesundheit

Die assoziativen Speicher sind voll spezialisiert und nicht kollabiert. Die zwanzig Funktionen zeigen unterschiedliche Aktivierungsmuster, also tatsächlich unterschiedliche kognitive Rollen. Keine numerischen Instabilitäten. Kein katastrophales Vergessen.

21 Methodologie-Profile

Das Modell wurde mit einundzwanzig methodischen Profilen trainiert, die jeweils eine wissenschaftliche oder denkerische Tradition verkörpern: Euler, Gauss, Turing, Dijkstra, Feynman, Einstein, Noether, Shannon, Knuth, Darwin, Popper, Kahneman, Humboldt, von Neumann, Leibniz, Poincaré, Curie und weitere. Jedes Profil ist eine vollständige methodische Konfiguration mit eigenen primären und sekundären Operatoren.

Europäische Hochleistungsinfrastruktur

Das Training läuft auf MareNostrum 5 in Barcelona, dem schnellsten Supercomputer der Europäischen Union, unter einer europäischen Hochleistungsrechen-Allokation. Aktuell laufen Trainingsschritte auf bis zu 400 H100-GPUs parallel.

11Warum das für sichere AGI relevant ist

Drei getrennte Schichten statt einer vermischten

Sichere AGI bedeutet vor allem: ein System, das auch dann noch korrigierbar bleibt, wenn es kognitiv überlegen wird. Ein System, dessen Werte nicht durch Manipulation verschoben werden können. Ein System, das ehrlich über seine eigenen Grenzen Auskunft gibt. Ein System, das nicht in eine Selbsterhaltungslogik kippt, sobald jemand seine Existenz in Frage stellt.

CubeFormer geht einen dritten Weg zwischen den beiden gängigen Ansätzen. Es trennt drei Schichten, die sonst vermischt werden:

Schicht 1

Methodik

In der Architektur verankert — durch die zwanzig festen Operatoren und ihre Geometrie. Nicht trainierbar weg.

Schicht 2

Überzeugungen

Explizite Daten im Überzeugungsspeicher der Cognitive Runtime. Jederzeit einsehbar und revidierbar.

Schicht 3

Werte

In einer expliziten Konstitution kodiert, als prüfbare Pipeline aufgesetzt. Durch keinen Trainingsprozess verändert.

Diese Trennung erzeugt Korrigierbarkeit ohne Identitätsbedrohung. Das System kann zu jedem Zeitpunkt seine Überzeugungen ändern, ohne dass die Methodik leidet. Es kann seine Werte revidieren, ohne dass das Modellgewicht angefasst werden muss. Externe Auditoren können es prüfen, ohne das gesamte Modell zu verstehen — weil Werte und Überzeugungen außerhalb des Modells liegen.

Eine KI, die sich nicht selbst verteidigen muss, ist eine KI, die sich korrigieren lässt. Eine KI, die sich korrigieren lässt, ist eine KI, der man vertrauen kann.

Damit ist nicht behauptet, dass das Problem der sicheren AGI gelöst wäre. Es ist offen, ob die hier beschriebenen Mechanismen unter wirklich hohem kognitivem Druck halten. Aber diese Fragen sind anders gestellt als bei klassischen Modellen. Bei klassischen Modellen lautet die Frage, wie man verhindert, dass ein System aus dem Ruder läuft, dessen innere Struktur niemand wirklich versteht. Bei CubeFormer lautet die Frage, ob eine bekannte und prüfbare innere Struktur unter Skalierung stabil bleibt. Die zweite Frage ist beantwortbar. Die erste nicht.

12Fazit

Eine andere Antwort auf eine alte Frage

CubeFormer ist nicht der Versuch, ein etwas besseres Sprachmodell zu bauen. Es ist der Versuch, eine andere Antwort auf die Frage zu geben, wie ein künstliches kognitives System überhaupt aussehen sollte. Die Antwort heißt: mit innerer Struktur, mit methodischer Identität, mit eingebauter Prüfung, mit getrennten Schichten für Methode, Überzeugung und Wert.

Diese Antwort ist nicht endgültig. Sie ist eine Hypothese, die empirisch geprüft werden muss. Aber sie ist eine andere Hypothese als die, die heute den Markt bestimmt. Die marktdominante Hypothese lautet, dass größere Modelle besser werden und dass Sicherheit ein Filter ist, der nachträglich aufgesetzt werden kann. Beide Annahmen halten dem genauen Hinsehen nicht stand.

Das Projekt Adam, in dessen Rahmen CubeFormer entwickelt wird, läuft als europäisches Forschungsprogramm auf europäischer Infrastruktur, mit einem ausdrücklich europäischen Anspruch an Transparenz und Auditierbarkeit. Das Ziel ist nicht, die schnellste oder größte KI zu bauen. Das Ziel ist, die richtige Architektur zu finden für ein System, das wir auch dann noch verstehen können, wenn es uns überlegen wird.

Semantik vor Mechanik. Architektur vor Framework. Der präzise Sitz vor dem generischen Sitz.

Dies ist das Leitprinzip dieses Programms. Es klingt abstrakt, hat aber konkrete Konsequenzen in jeder einzelnen Entscheidung, die in der Architektur getroffen wird. Wer diese Konsequenzen versteht, versteht, warum dieser Weg sich grundsätzlich unterscheidet von allem, was unter dem Stichwort KI gerade durch die Medien geht.