論文の概要: Geometric Priors for Generalizable World Models via Vector Symbolic Architecture
- arxiv url: http://arxiv.org/abs/2602.21467v1
- Date: Wed, 25 Feb 2026 00:41:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.654726
- Title: Geometric Priors for Generalizable World Models via Vector Symbolic Architecture
- Title(参考訳): ベクトル記号アーキテクチャによる一般化可能な世界モデルの幾何学的優先順位
- Authors: William Youngwoo Chung, Calvin Yeung, Hansen Jin Lillemark, Zhuowen Zou, Xiangjian Liu, Mohsen Imani,
- Abstract要約: 人工知能の鍵となる課題は、ニューラルネットワークが世界の基盤となるダイナミクスを捉える表現を学ぶ方法を理解することである。
本稿では,ベクトル記号アーキテクチャ(VSA)の原理に基づく一般化可能な世界モデルを用いて,これらの問題を解決する。
潜在群構造を持つためのトレーニングは、一般化可能、データ効率、解釈可能な世界モデルをもたらすかを示す。
- 参考スコア(独自算出の注目度): 9.216794073296679
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A key challenge in artificial intelligence and neuroscience is understanding how neural systems learn representations that capture the underlying dynamics of the world. Most world models represent the transition function with unstructured neural networks, limiting interpretability, sample efficiency, and generalization to unseen states or action compositions. We address these issues with a generalizable world model grounded in Vector Symbolic Architecture (VSA) principles as geometric priors. Our approach utilizes learnable Fourier Holographic Reduced Representation (FHRR) encoders to map states and actions into a high dimensional complex vector space with learned group structure and models transitions with element-wise complex multiplication. We formalize the framework's group theoretic foundation and show how training such structured representations to be approximately invariant enables strong multi-step composition directly in latent space and generalization performances over various experiments. On a discrete grid world environment, our model achieves 87.5% zero shot accuracy to unseen state-action pairs, obtains 53.6% higher accuracy on 20-timestep horizon rollouts, and demonstrates 4x higher robustness to noise relative to an MLP baseline. These results highlight how training to have latent group structure yields generalizable, data-efficient, and interpretable world models, providing a principled pathway toward structured models for real-world planning and reasoning.
- Abstract(参考訳): 人工知能と神経科学における重要な課題は、ニューラルネットワークが世界の根底にあるダイナミクスを捉える表現を学ぶ方法を理解することである。
ほとんどの世界モデルは、非構造化ニューラルネットワークによる遷移関数を表し、解釈可能性、サンプル効率、そして目に見えない状態やアクション構成への一般化を制限している。
本稿では,ベクトル記号アーキテクチャ(VSA)の原理に基づく一般化可能な世界モデルを用いて,これらの問題を解決する。
我々の手法は、学習可能なフーリエホログラフィ還元表現(FHRR)エンコーダを用いて、状態と動作を学習された群構造とモデルが要素ワイドな複素乗法で遷移する高次元複素ベクトル空間にマッピングする。
フレームワークの群論の基礎を定式化し、そのような構造的表現をほぼ不変であるように訓練することで、潜在空間における強い多段階合成と様々な実験における一般化性能が実現可能であることを示す。
離散グリッド環境下では,20ステップの水平ロールアウトにおいて,87.5%のゼロショット精度を実現し,53.6%の精度を実現し,MLPベースラインに対して4倍の強靭性を示す。
これらの結果は、潜在群構造を持つためのトレーニングが、一般化可能、データ効率、解釈可能な世界モデルを生み出し、現実世界の計画と推論のための構造化モデルへの原則化された経路を提供する。
関連論文リスト
- Information-Theoretic Framework for Understanding Modern Machine-Learning [4.435094091999926]
本稿では,学習をログ損失下での普遍的な予測とみなす情報理論フレームワークを提案する。
成功するアーキテクチャは幅広い複雑さの範囲を持ち、高度に過度にパラメータ化されたモデルクラスでの学習を可能にしている、と我々は主張する。
この枠組みは、誘導バイアスの役割、降下勾配の効果、および平坦なミニマのような現象に光を当てている。
論文 参考訳(メタデータ) (2025-06-09T11:32:31Z) - Directional Non-Commutative Monoidal Structures for Compositional Embeddings in Machine Learning [0.0]
指向性非可換モノイド作用素上に構築された合成埋め込みのための新しい構造を導入する。
我々の構成では、各軸 i に対して異なる合成演算子 circ_i を定義し、大域的な可換性を与えることなく、各軸に沿って連想結合を保証する。
すべての軸特異作用素は互いに可換であり、一貫した交叉軸合成を可能にする大域的交換法則を強制する。
論文 参考訳(メタデータ) (2025-05-21T13:27:14Z) - Scaling Laws and Representation Learning in Simple Hierarchical Languages: Transformers vs. Convolutional Architectures [49.19753720526998]
合成データセット上でのニューラルネットワーク性能に関する理論的スケーリング法則を導出する。
局所性と重み共有によって生成過程の構造が整った畳み込みネットワークは、性能の高速化を享受できることを示す。
この発見は、ニューラルネットワークのスケーリング法則に基づくアーキテクチャ上のバイアスを明らかにし、モデルアーキテクチャとデータの統計的性質の間の相互作用によって表現学習がどのように形成されるかを強調している。
論文 参考訳(メタデータ) (2025-05-11T17:44:14Z) - Geometric Neural Process Fields [58.77241763774756]
幾何学的ニューラル・プロセス・フィールド(Geometric Neural Process Fields, G-NPF)は、ニューラル・ラディアンス・フィールドの確率的フレームワークである。
これらの基盤の上に構築された階層型潜在変数モデルにより、G-NPFは複数の空間レベルにまたがる構造情報を統合できる。
3次元シーンと2次元画像と1次元信号レグレッションの新規ビュー合成実験により,本手法の有効性を実証した。
論文 参考訳(メタデータ) (2025-02-04T14:17:18Z) - KKANs: Kurkova-Kolmogorov-Arnold Networks and Their Learning Dynamics [1.8434042562191815]
Kurkova-Kolmogorov-Arnold Network (KKAN) は、堅牢な多層パーセプトロン(MLP)をベースとした内部関数と、基底関数を外部関数として柔軟な線形結合を組み合わせた新しい2ブロックアーキテクチャである。
ベンチマークの結果、KKANは関数近似および演算子学習タスクにおいて、元のKAN(Kolmogorov-Arnold Networks)よりも優れていた。
論文 参考訳(メタデータ) (2024-12-21T19:01:38Z) - Learning to Walk from Three Minutes of Real-World Data with Semi-structured Dynamics Models [9.318262213262866]
コンタクトリッチシステムのための半構造化力学モデルを学習するための新しいフレームワークを提案する。
我々は,従来の手法よりもはるかに少ないデータで高精度な長距離予測を行う。
実世界のUnitree Go1四足歩行ロボットに対するアプローチを検証する。
論文 参考訳(メタデータ) (2024-10-11T18:11:21Z) - DIFFormer: Scalable (Graph) Transformers Induced by Energy Constrained
Diffusion [66.21290235237808]
本稿では,データセットからのインスタンスのバッチを進化状態にエンコードするエネルギー制約拡散モデルを提案する。
任意のインスタンス対間の対拡散強度に対する閉形式最適推定を示唆する厳密な理論を提供する。
各種タスクにおいて優れた性能を有する汎用エンコーダバックボーンとして,本モデルの適用性を示す実験を行った。
論文 参考訳(メタデータ) (2023-01-23T15:18:54Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。