論文の概要: On Memory: A comparison of memory mechanisms in world models
- arxiv url: http://arxiv.org/abs/2512.06983v1
- Date: Sun, 07 Dec 2025 20:29:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.616971
- Title: On Memory: A comparison of memory mechanisms in world models
- Title(参考訳): 記憶について:世界モデルにおける記憶機構の比較
- Authors: Eli J. Laird, Corey Clark,
- Abstract要約: 本稿では,複数のメモリ拡張機構の解析により,トランスフォーマーを用いた世界モデルの有効メモリスパンについて検討する。
メモリエンコーディングとメモリインジェクションのメカニズムを区別する分類法を導入し、世界モデルのメモリ拡張におけるそれらの役割を動機づける。
本研究は,記憶機構が視覚変換器の有効メモリ幅を向上し,世界モデルの想像力内でループ閉鎖を完了するための経路を提供することを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: World models enable agents to plan within imagined environments by predicting future states conditioned on past observations and actions. However, their ability to plan over long horizons is limited by the effective memory span of the backbone architecture. This limitation leads to perceptual drift in long rollouts, hindering the model's capacity to perform loop closures within imagined trajectories. In this work, we investigate the effective memory span of transformer-based world models through an analysis of several memory augmentation mechanisms. We introduce a taxonomy that distinguishes between memory encoding and memory injection mechanisms, motivating their roles in extending the world model's memory through the lens of residual stream dynamics. Using a state recall evaluation task, we measure the memory recall of each mechanism and analyze its respective trade-offs. Our findings show that memory mechanisms improve the effective memory span in vision transformers and provide a path to completing loop closures within a world model's imagination.
- Abstract(参考訳): 世界モデルにより、エージェントは過去の観測と行動に条件づけられた将来の状態を予測し、想像された環境内で計画できる。
しかしながら、長い水平線を計画する能力は、バックボーンアーキテクチャの効果的なメモリスパンによって制限される。
この制限は、長いロールアウトにおいて知覚的ドリフトを引き起こし、想像された軌道内でループクロージャを実行するモデルの能力を妨げる。
本研究では,複数のメモリ拡張機構の解析により,トランスフォーマーを用いた世界モデルの有効メモリスパンについて検討する。
メモリエンコーディングとメモリインジェクションのメカニズムを区別する分類法を導入し、残ストリームダイナミクスのレンズを通して世界モデルのメモリを拡張する役割を動機づける。
状態リコール評価タスクを用いて、各メカニズムのメモリリコールを測定し、それぞれのトレードオフを分析する。
本研究は,記憶機構が視覚変換器の有効メモリ幅を向上し,世界モデルの想像力内でループ閉鎖を完了するための経路を提供することを示す。
関連論文リスト
- MemGen: Weaving Generative Latent Memory for Self-Evolving Agents [57.1835920227202]
本稿では,エージェントに人間的な認知機能を持たせる動的生成記憶フレームワークであるMemGenを提案する。
MemGenは、エージェントが推論を通して潜在記憶をリコールし、増大させ、記憶と認知の密接なサイクルを生み出すことを可能にする。
論文 参考訳(メタデータ) (2025-09-29T12:33:13Z) - Video World Models with Long-term Spatial Memory [110.530715838396]
本稿では,ビデオワールドモデルの長期的整合性を高める新しい枠組みを提案する。
我々のフレームワークは、長期空間記憶から情報を保存・取得する機構を含んでいる。
評価の結果,関連するベースラインに比べて品質,一貫性,コンテキスト長が向上した。
論文 参考訳(メタデータ) (2025-06-05T17:42:34Z) - WORLDMEM: Long-term Consistent World Simulation with Memory [20.450750381415965]
WorldMemは、メモリフレームとステートを格納するメモリユニットで構成されるメモリバンクでシーン生成を強化するフレームワークである。
本手法は,重要な視点や時間的ギャップの下でも,事前に観察されたシーンを正確に再構成することができる。
論文 参考訳(メタデータ) (2025-04-16T17:59:30Z) - Stable Hadamard Memory: Revitalizing Memory-Augmented Agents for Reinforcement Learning [64.93848182403116]
現在のディープラーニングメモリモデルは、部分的に観察可能で長期にわたる強化学習環境で苦労している。
本稿では,強化学習エージェントのための新しい記憶モデルであるStable Hadamard Memoryを紹介する。
我々の手法は、部分的に観測可能なベンチマークに挑戦する上で、最先端のメモリベースの手法よりも大幅に優れています。
論文 参考訳(メタデータ) (2024-10-14T03:50:17Z) - Spatially-Aware Transformer for Embodied Agents [20.498778205143477]
本稿では,空間情報を含む空間認識変換器モデルの利用について検討する。
メモリ利用効率が向上し,様々な場所中心の下流タスクにおいて精度が向上することが実証された。
また,強化学習に基づくメモリ管理手法であるAdaptive Memory Allocatorを提案する。
論文 参考訳(メタデータ) (2024-02-23T07:46:30Z) - Recurrent Action Transformer with Memory [39.58317527488534]
本稿では,情報保持を規制するリカレントメモリ機構を組み込んだ新しいモデルアーキテクチャを提案する。
メモリ集約環境(ViZDoom-Two-Colors, T-Maze, Memory Maze, Minigrid-Memory)、古典的アタリゲーム、MuJoCo制御環境について実験を行った。
その結果、メモリの使用は、古典的な環境における結果の維持や改善をしながら、メモリ集約環境におけるパフォーマンスを著しく向上させることができることがわかった。
論文 参考訳(メタデータ) (2023-06-15T19:29:08Z) - Think Before You Act: Decision Transformers with Working Memory [44.18926449252084]
決定変換器に基づく意思決定エージェントは、複数のタスクにまたがる一般化能力を示している。
この非効率性は、モデルがトレーニングを通してパラメータの振る舞いを記憶する忘れ現象に起因していると我々は主張する。
ダウンストリームタスクの情報を格納、ブレンド、検索するためのワーキングメモリモジュールを提案する。
論文 参考訳(メタデータ) (2023-05-24T01:20:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。