論文の概要: Episodic Memory for Learning Subjective-Timescale Models
- arxiv url: http://arxiv.org/abs/2010.01430v1
- Date: Sat, 3 Oct 2020 21:55:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 08:34:42.495591
- Title: Episodic Memory for Learning Subjective-Timescale Models
- Title(参考訳): 主観的時間スケールモデル学習のための韻律記憶
- Authors: Alexey Zakharov, Matthew Crosby, Zafeirios Fountas
- Abstract要約: モデルに基づく学習では、エージェントのモデルは、環境の連続状態間の遷移に対して一般的に定義される。
対照的に、生物学的生物の知的行動は、文脈によって異なる時間スケールを計画する能力によって特徴づけられる。
エージェントの主観的時間尺度を定義するエピソード記憶のシーケンスに基づいて、遷移力学モデルを学ぶための新しいアプローチを考案する。
- 参考スコア(独自算出の注目度): 1.933681537640272
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In model-based learning, an agent's model is commonly defined over
transitions between consecutive states of an environment even though planning
often requires reasoning over multi-step timescales, with intermediate states
either unnecessary, or worse, accumulating prediction error. In contrast,
intelligent behaviour in biological organisms is characterised by the ability
to plan over varying temporal scales depending on the context. Inspired by the
recent works on human time perception, we devise a novel approach to learning a
transition dynamics model, based on the sequences of episodic memories that
define the agent's subjective timescale - over which it learns world dynamics
and over which future planning is performed. We implement this in the framework
of active inference and demonstrate that the resulting subjective-timescale
model (STM) can systematically vary the temporal extent of its predictions
while preserving the same computational efficiency. Additionally, we show that
STM predictions are more likely to introduce future salient events (for example
new objects coming into view), incentivising exploration of new areas of the
environment. As a result, STM produces more informative action-conditioned
roll-outs that assist the agent in making better decisions. We validate
significant improvement in our STM agent's performance in the Animal-AI
environment against a baseline system, trained using the environment's
objective-timescale dynamics.
- Abstract(参考訳): モデルに基づく学習では、エージェントのモデルは、しばしば複数のステップのタイムスケールの推論を必要とするにもかかわらず、環境の連続状態間の遷移に対して一般的に定義される。
対照的に、生物の知的行動は、文脈によって異なる時間スケールで計画する能力によって特徴づけられる。
人間の時間知覚に関する最近の研究に触発されて、エージェントの主観的な時間スケールを定義したエピソディック記憶のシーケンスに基づいて、トランジッションダイナミクスモデルを学ぶための新しいアプローチを考案する。
我々はこれをアクティブな推論の枠組みで実装し、結果の主観的時間スケールモデル(STM)が、同じ計算効率を維持しながら、その予測の時間的範囲を体系的に変化させることができることを示した。
さらに,stmの予測により,将来的なサルエントイベント(例えば,目に入る新しい物体)がもたらされる可能性が高く,環境の新たな領域を探索するインセンティブが高まることが示された。
その結果、STMはより情報的な行動条件付きロールアウトを生成し、エージェントがより良い意思決定を行うのを助ける。
我々は,動物-AI環境におけるSTMエージェントの性能を,環境の客観的・時間スケールのダイナミクスを用いてトレーニングしたベースラインシステムに対して著しく改善することを検証する。
関連論文リスト
- DyG-Mamba: Continuous State Space Modeling on Dynamic Graphs [59.434893231950205]
動的グラフ学習は、現実世界のシステムにおける進化の法則を明らかにすることを目的としている。
動的グラフ学習のための新しい連続状態空間モデルDyG-Mambaを提案する。
我々はDyG-Mambaがほとんどのデータセットで最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2024-08-13T15:21:46Z) - Disentangled Neural Relational Inference for Interpretable Motion
Prediction [38.40799770648501]
グラフベース表現と時系列モデルを統合した変分自動エンコーダフレームワークを開発した。
本モデルでは,対話を特徴付ける解釈可能なエッジ特徴を付加した動的相互作用グラフを推論する。
シミュレーションと実世界の両方のデータセットに関する広範な実験を通じて、我々のアプローチを検証する。
論文 参考訳(メタデータ) (2024-01-07T22:49:24Z) - OpenSTL: A Comprehensive Benchmark of Spatio-Temporal Predictive
Learning [67.07363529640784]
提案するOpenSTLは,一般的なアプローチを再帰的モデルと再帰的モデルに分類する。
我々は, 合成移動物体軌道, 人間の動き, 運転シーン, 交通流, 天気予報など, さまざまな領域にわたるデータセットの標準評価を行う。
リカレントフリーモデルは、リカレントモデルよりも効率と性能のバランスが良いことがわかった。
論文 参考訳(メタデータ) (2023-06-20T03:02:14Z) - Inverse Dynamics Pretraining Learns Good Representations for Multitask
Imitation [66.86987509942607]
このようなパラダイムを模倣学習でどのように行うべきかを評価する。
本稿では,事前学習コーパスがマルチタスクのデモンストレーションから成り立つ環境について考察する。
逆動力学モデリングはこの設定に適していると主張する。
論文 参考訳(メタデータ) (2023-05-26T14:40:46Z) - Motion-Scenario Decoupling for Rat-Aware Video Position Prediction:
Strategy and Benchmark [49.58762201363483]
本研究では,個人や環境の影響要因を考慮し,生物ロボットの動き予測データセットであるRatPoseを紹介する。
本稿では,シナリオ指向とモーション指向を効果的に分離するDual-stream Motion-Scenario Decouplingフレームワークを提案する。
難易度が異なるタスクに対して,提案したtextitDMSD フレームワークの大幅な性能向上を示す。
論文 参考訳(メタデータ) (2023-05-17T14:14:31Z) - Predictive Experience Replay for Continual Visual Control and
Forecasting [62.06183102362871]
視覚力学モデリングのための新しい連続学習手法を提案し,その視覚制御と予測における有効性について検討する。
まず,タスク固有のダイナミクスをガウスの混合で学習する混合世界モデルを提案し,その上で,破滅的な忘れを克服するための新たなトレーニング戦略を提案する。
我々のモデルは,DeepMind Control と Meta-World のベンチマークにおいて,既存の連続的学習アルゴリズムと視覚的RLアルゴリズムの単純な組み合わせよりも優れている。
論文 参考訳(メタデータ) (2023-03-12T05:08:03Z) - Neural Superstatistics for Bayesian Estimation of Dynamic Cognitive
Models [2.7391842773173334]
我々は,時間変化パラメータと時間不変パラメータの両方を復元できるベイズ推論のシミュレーションに基づくディープラーニング手法を開発した。
この結果から,ディープラーニングアプローチは時間的ダイナミクスを捉える上で極めて効率的であることが示唆された。
論文 参考訳(メタデータ) (2022-11-23T17:42:53Z) - Multi-Timescale Modeling of Human Behavior [0.18199355648379031]
本稿では,行動情報を複数の時間スケールで処理し,将来の行動を予測するLSTMネットワークアーキテクチャを提案する。
我々は、仮想Minecraftベースのテストベッドでシミュレーションした都市検索・救助シナリオで収集したデータに基づいて、アーキテクチャを評価する。
論文 参考訳(メタデータ) (2022-11-16T15:58:57Z) - Variational Predictive Routing with Nested Subjective Timescales [1.6114012813668934]
本稿では,時間的階層に潜む映像の特徴を整理するニューラル推論システムである変動予測ルーティング(PRV)を提案する。
VPRはイベント境界を検出し、時間的特徴を分散させ、データの動的階層に適応し、未来の正確な時間に依存しないロールアウトを生成することができることを示す。
論文 参考訳(メタデータ) (2021-10-21T16:12:59Z) - Temporal Predictive Coding For Model-Based Planning In Latent Space [80.99554006174093]
時間的に予測可能な環境要素を符号化するために,時間的予測符号化を用いた情報理論的手法を提案する。
本稿では,DMControl タスクの背景を複雑な情報を含む自然なビデオに置き換える,標準的な DMControl タスクの挑戦的な修正について評価する。
論文 参考訳(メタデータ) (2021-06-14T04:31:15Z) - Individual Mobility Prediction: An Interpretable Activity-based Hidden
Markov Approach [6.1938383008964495]
本研究では、個人移動予測のためのアクティビティに基づくモデリングフレームワークを開発する。
提案モデルでは,最先端の長期記憶モデル(LSTM)と同様の予測性能が得られることを示す。
論文 参考訳(メタデータ) (2021-01-11T16:11:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。