論文の概要: A Minimal Task Reveals Emergent Path Integration and Object-Location Binding in a Predictive Sequence Model
- arxiv url: http://arxiv.org/abs/2602.03490v1
- Date: Tue, 03 Feb 2026 13:08:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.458205
- Title: A Minimal Task Reveals Emergent Path Integration and Object-Location Binding in a Predictive Sequence Model
- Title(参考訳): 予測シーケンスモデルにおける創発経路統合とオブジェクト位置結合の最小化
- Authors: Linda Ariel Ventura, Victoria Bosch, Tim C Kietzmann, Sushrut Thorat,
- Abstract要約: 行動条件付き逐次予測は「世界モデル」を学習するのに十分であることを示す。
我々は、現在の入力とササードのような変位から次のトークンを予測するために、リカレントニューラルネットワークを訓練する。
復号化解析は、トークンアイデンティティの位置への経路統合と動的結合を明らかにする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adaptive cognition requires structured internal models representing objects and their relations. Predictive neural networks are often proposed to form such "world models", yet their underlying mechanisms remain unclear. One hypothesis is that action-conditioned sequential prediction suffices for learning such world models. In this work, we investigate this possibility in a minimal in-silico setting. Sequentially sampling tokens from 2D continuous token scenes, a recurrent neural network is trained to predict the upcoming token from current input and a saccade-like displacement. On novel scenes, prediction accuracy improves across the sequence, indicating in-context learning. Decoding analyses reveal path integration and dynamic binding of token identity to position. Interventional analyses show that new bindings can be learned late in sequence and that out-of-distribution bindings can be learned. Together, these results demonstrate how structured representations that rely on flexible binding emerge to support prediction, offering a mechanistic account of sequential world modeling relevant to cognitive science.
- Abstract(参考訳): 適応認知には、対象とその関係を表す構造的内部モデルが必要である。
予測ニューラルネットワークはしばしばそのような「世界モデル」を形成するために提案されるが、その基盤となるメカニズムはいまだ不明である。
1つの仮説は、行動条件付き逐次予測はそのような世界モデルを学ぶのに十分である、というものである。
本研究では,この可能性について,最小限のシリカ・セッティングで検討する。
2D連続トークンシーンからトークンを順次サンプリングし、現在の入力とササードのような変位から次のトークンを予測するために、リカレントニューラルネットワークをトレーニングする。
新たなシーンでは、予測精度がシーケンス全体にわたって向上し、コンテキスト内学習を示す。
復号化解析は、トークンアイデンティティの位置への経路統合と動的結合を明らかにする。
インターベンショナル分析により、新しい結合はシークエンスで遅く学習でき、分布外結合も学べることが示された。
これらの結果は、フレキシブルな結合に依存する構造的表現が、予測をサポートするためにどのように出現するかを示し、認知科学に関連する逐次世界モデリングの力学的説明を提供する。
関連論文リスト
- Neural Network Reprogrammability: A Unified Theme on Model Reprogramming, Prompt Tuning, and Prompt Instruction [57.19302613163439]
モデル適応のための統一フレームワークとして,ニューラルネットワークの再プログラム可能性を導入する。
本稿では,4つの重要な側面にまたがる情報操作アプローチを分類する分類法を提案する。
残る技術的課題や倫理的考察も分析する。
論文 参考訳(メタデータ) (2025-06-05T05:42:27Z) - Meta-Representational Predictive Coding: Biomimetic Self-Supervised Learning [51.22185316175418]
メタ表現予測符号化(MPC)と呼ばれる新しい予測符号化方式を提案する。
MPCは、並列ストリームにまたがる感覚入力の表現を予測することを学ぶことによって、感覚入力の生成モデルを学ぶ必要性を助長する。
論文 参考訳(メタデータ) (2025-03-22T22:13:14Z) - Contrastive Representation Learning for Dynamic Link Prediction in Temporal Networks [1.9389881806157312]
本稿では,時間ネットワークの表現を学習するための自己教師付き手法を提案する。
本稿では、時間的ネットワークの時間的参照経路を介して情報の流れをモデル化するための、繰り返しメッセージパッシングニューラルネットワークアーキテクチャを提案する。
提案手法は、Enron、COLAB、Facebookのデータセットでテストされる。
論文 参考訳(メタデータ) (2024-08-22T22:50:46Z) - Robust Graph Representation Learning via Predictive Coding [46.22695915912123]
予測符号化は、当初脳の情報処理をモデル化するために開発されたメッセージパッシングフレームワークである。
本研究では,予測符号化のメッセージパス規則に依存するモデルを構築する。
提案したモデルは,帰納的タスクと帰納的タスクの両方において,標準的なモデルに匹敵する性能を示す。
論文 参考訳(メタデータ) (2022-12-09T03:58:22Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Predicting Temporal Sets with Deep Neural Networks [50.53727580527024]
本稿では,時間集合予測のためのディープニューラルネットワークに基づく統合解を提案する。
ユニークな視点は、セットレベルの共起グラフを構築することで要素関係を学ぶことである。
我々は,要素や集合の時間依存性を適応的に学習するアテンションベースのモジュールを設計する。
論文 参考訳(メタデータ) (2020-06-20T03:29:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。