論文の概要: Algebraic Quantum Intelligence: A New Framework for Reproducible Machine Creativity
- arxiv url: http://arxiv.org/abs/2602.14130v1
- Date: Sun, 15 Feb 2026 13:02:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 14:17:28.664235
- Title: Algebraic Quantum Intelligence: A New Framework for Reproducible Machine Creativity
- Title(参考訳): 代数量子インテリジェンス - 再現可能なマシン創造のための新しいフレームワーク
- Authors: Kazuo Yano, Jonghyeok Lee, Tae Ishitomi, Hironobu Kawaguchi, Akira Koyama, Masakuni Ota, Yuki Ota, Nobuo Sato, Keita Shimada, Sho Takematsu, Ayaka Tobinai, Satomi Tsuji, Kazunori Yanagi, Keiko Yano, Manabu Harada, Yuki Matsuda, Kazunori Matsumoto, Kenichi Matsumura, Hamae Matsuo, Yumi Miyazaki, Kotaro Murai, Tatsuya Ohshita, Marie Seki, Shun Tanoue, Tatsuki Terakado, Yuko Ichimaru, Mirei Saito, Akihiro Otsuka, Koji Ara,
- Abstract要約: 大規模言語モデル (LLM) は、流動的で文脈的に適切なテキストを生成することに成功している。
本稿では,意味空間の体系的拡張を可能にする計算フレームワークとして代数量子インテリジェンス(AQI)を提案する。
- 参考スコア(独自算出の注目度): 1.9823694436716954
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have achieved remarkable success in generating fluent and contextually appropriate text; however, their capacity to produce genuinely creative outputs remains limited. This paper posits that this limitation arises from a structural property of contemporary LLMs: when provided with rich context, the space of future generations becomes strongly constrained, and the generation process is effectively governed by near-deterministic dynamics. Recent approaches such as test-time scaling and context adaptation improve performance but do not fundamentally alter this constraint. To address this issue, we propose Algebraic Quantum Intelligence (AQI) as a computational framework that enables systematic expansion of semantic space. AQI is formulated as a noncommutative algebraic structure inspired by quantum theory, allowing properties such as order dependence, interference, and uncertainty to be implemented in a controlled and designable manner. Semantic states are represented as vectors in a Hilbert space, and their evolution is governed by C-values computed from noncommutative operators, thereby ensuring the coexistence and expansion of multiple future semantic possibilities. In this study, we implement AQI by extending a transformer-based LLM with more than 600 specialized operators. We evaluate the resulting system on creative reasoning benchmarks spanning ten domains under an LLM-as-a-judge protocol. The results show that AQI consistently outperforms strong baseline models, yielding statistically significant improvements and reduced cross-domain variance. These findings demonstrate that noncommutative algebraic dynamics can serve as a practical and reproducible foundation for machine creativity. Notably, this architecture has already been deployed in real-world enterprise environments.
- Abstract(参考訳): 大規模言語モデル (LLMs) は、流動的で文脈的に適切なテキストを生成することに成功しているが、真の創造的な出力を生成する能力は依然として限られている。
本稿では、この制限が現代のLLMの構造的性質から生じることを示唆する: リッチコンテキストが提供されると、世代間空間は強く制約され、生成過程は、ほぼ決定論的ダイナミクスによって効果的に支配される。
テストタイムスケーリングやコンテキスト適応といった最近のアプローチでは、パフォーマンスが向上するが、この制約を根本的に変更することはない。
この問題に対処するために,意味空間の体系的拡張を可能にする計算フレームワークとして代数量子インテリジェンス(AQI)を提案する。
AQI は量子理論に着想を得た非可換代数構造として定式化され、順序依存、干渉、不確実性といった性質を制御可能かつ設計可能な方法で実装することができる。
意味的状態はヒルベルト空間のベクトルとして表現され、その進化は非可換作用素から計算されたC-値によって制御され、それによって複数の将来の意味論可能性の共存と拡張が保証される。
本研究では,600以上の特殊演算子でトランスフォーマーをベースとしたLLMを拡張し,AQIを実装した。
LLM-as-a-judgeプロトコルを用いて,10領域にまたがる創造的推論ベンチマークを用いて,提案手法の評価を行った。
その結果、AQIは強いベースラインモデルより一貫して優れており、統計的に有意な改善とドメイン間分散の低減が得られた。
これらの結果は、非可換代数力学が機械の創造性のための実用的で再現可能な基礎となることを示している。
このアーキテクチャは、すでに実環境のエンタープライズ環境にデプロイされています。
関連論文リスト
- Top 10 Open Challenges Steering the Future of Diffusion Language Model and Its Variants [85.33837131101342]
本稿では,基盤基盤,アルゴリズム最適化,認知推論,統合マルチモーダルインテリジェンスという4つの柱で構成された戦略ロードマップを提案する。
この移行は、複雑な構造的推論、動的自己補正、シームレスなマルチモーダル統合が可能な次世代AIの開発に不可欠である、と我々は主張する。
論文 参考訳(メタデータ) (2026-01-20T14:58:23Z) - Benchmarking Generative AI Against Bayesian Optimization for Constrained Multi-Objective Inverse Design [0.15293427903448018]
本稿では,制約付き多目的回帰タスクを解くための生成可能な言語モデル(LLM)の性能について検討する。
最高の性能のLDM(Math-7B)は1.21の世代距離(GD)を達成した。
この知見は, 樹脂, レオロジー, 化学特性の定式化設計の最適化に, 直接工業的応用が期待できる。
論文 参考訳(メタデータ) (2025-10-29T10:37:09Z) - Ultracoarse Equilibria and Ordinal-Folding Dynamics in Operator-Algebraic Models of Infinite Multi-Agent Games [0.0]
エージェントの連続体を持つ無限ゲームのための演算子代数的フレームワークを開発する。
非可換連続性方程式によって支配される後悔に基づく学習力学が、一意の量子応答平衡に収束することを証明する。
本稿では,力学の自己参照深度を測定する計算可能な順序値指標である順序折り畳み指数を導入する。
論文 参考訳(メタデータ) (2025-07-25T22:20:42Z) - Bridging Expressivity and Scalability with Adaptive Unitary SSMs [15.244653633181303]
本稿では,適応ユニタリ状態空間モデル(Adaptive Unitary State Space Model, AUSSM)を紹介する。
AUSSMとそのハイブリッド変種であるMambaoutperformが、パリティやモジュラー算術といった形式的なタスクでSSMに先立つことを示す。
この結果から,ユニタリ反復は記号的および連続的シーケンスモデリングの両方において,強力かつ効率的な帰納的バイアスを与えることが示された。
論文 参考訳(メタデータ) (2025-07-07T17:47:16Z) - Perspectives on Large Language Models: Polysemy, Stochasticity, Exponential Expressibility, and Unitary Attention [0.0]
本稿では,Large Language Models(LLM)の基礎的側面について考察する。
擬直交ベクトルを用いて空間次元の埋め込みによって意味的特徴の表現がどのように指数関数的にスケールするかを分析する。
古典的機構のユニタリ拡張として量子アテンションを提案し,LLM処理をヒルベルト空間における可逆的量子様進化として再フレーミングする。
論文 参考訳(メタデータ) (2025-04-18T17:53:48Z) - Provably Transformers Harness Multi-Concept Word Semantics for Efficient In-Context Learning [53.685764040547625]
トランスフォーマーベースの大規模言語モデル(LLM)は、卓越した創造力と出現能力を示している。
この研究は、トランスフォーマーが単語のマルチコンセプトセマンティクスをどのように活用し、強力なICLと優れたアウト・オブ・ディストリビューションICL能力を実現するかを示すための数学的解析を提供する。
論文 参考訳(メタデータ) (2024-11-04T15:54:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。