Berlin, 27. Februar 2026: Die cAI Technology GmbH, die KI‑Tochtergesellschaft der coeo Group mit Sitz in Berlin, hat auf der wissenschaftlichen Plattform arXiv eine neue Forschungsarbeit veröffentlicht. Die Publikation mit dem Titel „Deep Sequence Modeling with Quantum Dynamics: Language as a Wave Function“ stellt einen Ansatz vor, der mathematische Prinzipien der Quantenmechanik für moderne Sprachmodelle nutzbar macht. Ziel ist es, Modelle zu entwickeln, die lange Kontexte stabil verarbeiten, effizienter repräsentieren und gleichzeitig tiefere Einblicke in ihre internen Abläufe ermöglichen.
Im Kern basiert die Arbeit auf der Idee, Sprache nicht mehr als bloße Abfolge reellwertiger Token‑Einbettungen zu behandeln, sondern als komplexwertige Wellenfunktion, die sich unter einer unitären Dynamik entwickelt. Dieser Perspektivwechsel erlaubt es dem Modell, mehrere Bedeutungsoptionen gleichzeitig zu berücksichtigen und ihr Verhältnis zueinander mithilfe von Interferenz, einem grundlegenden Konzept der Quantenmechanik, präzise zu steuern.
Eine zentrale Rolle spielt dabei die „Bedeutungsmasseverteilung“, die sich anschaulich mit einem Kuchen vergleichen lässt, dessen Stücke unterschiedliche Interpretationen eines Satzes repräsentieren. Zu Beginn einer Äußerung können diese Stücke noch gleich groß sein, verschieben sich jedoch dynamisch, sobald weitere Wörter hinzukommen. Die Gesamtmasse bleibt dabei konstant. Diese Normerhaltung sorgt dafür, dass die internen Zustände auch über sehr lange Texte hinweg stabil bleiben – ein Punkt, an dem klassische Architekturen häufig an ihre Grenzen stoßen.
Statt wie herkömmliche rekurrente Modelle konkurrierende Hypothesen über Gating‑Mechanismen auszublenden, nutzt die neue Architektur Interferenz. Kompatible Interpretationen verstärken sich gegenseitig, unpassende werden abgeschwächt. Besonders deutlich wird dies am Satzanfang „Der Jaguar …“. In diesem Moment hält das Modell mehrere mögliche Bedeutungen offen – das Raubtier, die Automarke oder ein Sportwagenmodell. Ergänzt man den Satz mit „… schlich durch das Unterholz“, entsteht unmittelbar ein klarer Bedeutungsrahmen: Das Tier passt, die automobilen Interpretationen nicht. Durch konstruktive und destruktive Interferenz verschiebt sich die Bedeutungsmasse entsprechend. Dieser Anpassungsprozess erfolgt nicht über harte Abschaltungen konkurrierender Optionen, sondern über ein weiches, wellenartiges Zusammenspiel der Bedeutungen. So entsteht ein natürlicher, kontinuierlicher Mechanismus der Bedeutungsselektion.
Die Wahrscheinlichkeitsausgabe des Modells orientiert sich zudem an einer an die Born‑Regel angelehnten Auslesung. Dabei fließen nicht nur die Stärke einzelner Bedeutungsanteile, sondern auch ihre relativen Phasen in die Entscheidung ein. Das Modell kann dadurch auf Beziehungen zwischen verschiedenen Interpretationen zugreifen, die klassischen, rein linearen Ausgabemechanismen verborgen bleiben. Die Arbeit zeigt mathematisch, dass sich bestimmte Arten von Disambiguierungsaufgaben bereits mit einer kleineren Zustandsdimension exakt lösen lassen, während vergleichbare reellwertige Modelle eine quadratisch größere Dimension benötigen würden. Dieser theoretisch fundierte Vorteil eröffnet neue Perspektiven für kompaktere und zugleich leistungsfähigere Sprachmodelle.
Ein weiterer Vorteil liegt im konstanten Speicherbedarf der Architektur. Während Transformer‑Modelle für jede neue Eingabe ihren Key‑Value‑Cache vergrößern, arbeitet das vorgestellte Modell mit einem einzigen festen Zustand, der bei jedem Token aktualisiert wird, unabhängig von der Länge des Textes. Dies macht die Architektur besonders attraktiv für Bereiche wie juristische Dokumentanalyse, umfangreiche Archivbestände oder andere Szenarien, in denen sehr lange Kontexte zuverlässig verarbeitet werden müssen. Auch Modellierungsaufgaben mit hochdimensionalen, stark korrelierten Daten, etwa komplexe Zeitreihen, könnten durch diesen Ansatz effizienter lösbar werden.
Neben Stabilität und Effizienz bietet die Architektur auch neue Formen der Interpretierbarkeit. Aus der zugrunde liegenden Dynamik lässt sich eine explizite Darstellung der Wahrscheinlichkeitsströme ableiten, anhand derer sichtbar wird, wie Bedeutungsmasse zwischen den latenten Dimensionen fließt. Diese Ströme wirken wie eine transparente interne Buchführung, vergleichbar mit einem nachvollziehbaren Protokoll von Geldflüssen zwischen Konten, und ermöglichen eine systematische Analyse der internen Entscheidungsprozesse eines komplexwertigen Sprachmodells. Für erklärbare KI ist dies ein bedeutender Fortschritt.
„Der entscheidende Vorteil liegt im Zusammenspiel von unitärer Dynamik und der Born-Regel“, erklärt Dr. Kevin Yam, Co‑Autor der Studie. „Während die Dynamik die Stabilität über lange Sequenzen garantiert, macht die Born-Regel komplexe Phasenbeziehungen als Interferenz nutzbar. So können sich Hypothesen gezielt verstärken oder auslöschen, was Ambiguitäten wesentlich effizienter und informationsbewahrender auflöst als klassische Modelle.“
Als nächste Schritte plant das Forschungsteam groß angelegte Trainingsläufe, umfassende Benchmarks sowie weiterführende numerische Untersuchungen. Parallel entsteht eine integrationsfähige Implementierung für produktive Systeme. Zusätzlich wird die theoretische Analyse weiter vertieft, um Dynamik, Ausdrucksstärke und Optimierbarkeit des Modells noch besser zu verstehen.
Die Arbeit zeigt, dass eine an der Quantenmechanik inspirierte Sichtweise nicht nur konzeptionelle Eleganz besitzt, sondern auch praktische Vorteile für moderne Sprachmodelle eröffnet – insbesondere dort, wo Stabilität, Effizienz und Erklärbarkeit von zentraler Bedeutung sind.
Pressekontakt:
Julia Bernhard
Senior Marketing & Public Relations Manager DACH
presse@coeo-inkasso.de
