論文の概要: A Biologically-Inspired Dual Stream World Model
- arxiv url: http://arxiv.org/abs/2209.08035v1
- Date: Fri, 16 Sep 2022 16:27:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-19 11:50:05.788873
- Title: A Biologically-Inspired Dual Stream World Model
- Title(参考訳): 生物にインスパイアされたデュアルストリーム世界モデル
- Authors: Arthur Juliani, Margaret Sereno
- Abstract要約: 中間側頭葉(MTL)は哺乳類の体験構築システムであると考えられている。
本稿では,高次元観測から学習し,それらを文脈やコンテンツストリームに分解する新たなモデルであるDual Stream World Model (DSWM)を提案する。
この表現は強化学習基盤関数として有用であり,ダイナ様更新を用いた政策学習を支援するために生成モデルが有用であることを示す。
- 参考スコア(独自算出の注目度): 0.456877715768796
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The medial temporal lobe (MTL), a brain region containing the hippocampus and
nearby areas, is hypothesized to be an experience-construction system in
mammals, supporting both recall and imagination of temporally-extended
sequences of events. Such capabilities are also core to many recently proposed
``world models" in the field of AI research. Taking inspiration from this
connection, we propose a novel variant, the Dual Stream World Model (DSWM),
which learns from high-dimensional observations and dissociates them into
context and content streams. DSWM can reliably generate imagined trajectories
in novel 2D environments after only a single exposure, outperforming a standard
world model. DSWM also learns latent representations which bear a strong
resemblance to place cells found in the hippocampus. We show that this
representation is useful as a reinforcement learning basis function, and that
the generative model can be used to aid the policy learning process using
Dyna-like updates.
- Abstract(参考訳): 海馬と近辺の領域を含む脳の内側側頭葉(mtl)は、哺乳類における経験的構築システムであると仮定され、時間的に拡張された一連の出来事の記憶と想像の両方をサポートする。
このような能力は、AI研究の分野で最近提案された「世界モデル」の多くの中核でもある。
この接続からインスピレーションを得て,高次元観測から学習し,それらを文脈やコンテンツストリームに分解する新たなモデルであるDual Stream World Model (DSWM)を提案する。
DSWMは、単一の露光だけで新しい2D環境で想像された軌道を確実に生成することができ、標準的な世界モデルよりも優れています。
DSWMはまた、海馬にある位置細胞と強い類似性を持つ潜伏表現を学習する。
この表現は強化学習基盤関数として有用であり,ダイナ様更新を用いた政策学習を支援するために生成モデルが有用であることを示す。
関連論文リスト
- A Practitioner's Guide to Continual Multimodal Pretraining [83.63894495064855]
マルチモーダル・ファンデーション・モデルは視覚と言語を交わす多くのアプリケーションに役立っている。
モデルを更新し続けるために、継続事前トレーニングの研究は主に、大規模な新しいデータに対する頻度の低い、差別的な更新、あるいは頻繁に行われるサンプルレベルの更新のシナリオを探求する。
本稿では,FoMo-in-Flux(FoMo-in-Flux)について紹介する。
論文 参考訳(メタデータ) (2024-08-26T17:59:01Z) - PoseMamba: Monocular 3D Human Pose Estimation with Bidirectional Global-Local Spatio-Temporal State Space Model [7.286873011001679]
単眼ビデオにおける複雑な人間のポーズ推定のための線形相関を用いたSSMに基づく純粋手法を提案する。
具体的には、各フレーム内だけでなく、フレーム間の人間の関節関係を包括的にモデル化する、双方向の時間的・時間的ブロックを提案する。
この戦略により、より論理的な幾何学的順序付け戦略が提供され、結果として局所空間スキャンが組み合わせられる。
論文 参考訳(メタデータ) (2024-08-07T04:38:03Z) - LidarDM: Generative LiDAR Simulation in a Generated World [21.343346521878864]
LidarDMは、リアルでレイアウト対応で、物理的に可視で、時間的に一貫性のあるLiDARビデオを生成することができる、新しいLiDAR生成モデルである。
我々は3次元シーンを生成するために潜時拡散モデルを使用し、それを動的アクターと組み合わせて基礎となる4次元世界を形成し、この仮想環境内で現実的な感覚観察を生成する。
提案手法は,現実性,時間的コヒーレンシ,レイアウト整合性において,競合するアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-04-03T17:59:28Z) - Memory in Plain Sight: Surveying the Uncanny Resemblances of Associative Memories and Diffusion Models [65.08133391009838]
拡散モデル(DM)の生成プロセスは、最近、多くのAI生成ベンチマークに最先端を設定した。
エネルギーに基づく連想記憶(AM)の分野からのメモリ検索の数学的言語を用いたDM記述のための新しい視点を導入する。
我々は,AMから期待される経験的行動を示すDMを記録できることの証拠として,DMをエネルギーベースメモリの一種として理解することによって明らかにされる研究の機会について論じる。
論文 参考訳(メタデータ) (2023-09-28T17:57:09Z) - Biologically-Motivated Learning Model for Instructed Visual Processing [3.105144691395886]
生物学的にもっともらしい学習の現在のモデルは、ボトムアップ(BU)とトップダウン(TD)処理の皮質的な組み合わせを用いることが多い。
視覚野では、TD経路が視覚的注意の第二の主要な役割を担い、視覚過程を興味のある場所やタスクに導く。
本稿では,TDストリームの2つの主要な機能を自然に統合する,BUとTD処理の皮質的な組み合わせを用いたモデルを提案する。
論文 参考訳(メタデータ) (2023-06-04T17:38:06Z) - Pre-training Contextualized World Models with In-the-wild Videos for
Reinforcement Learning [54.67880602409801]
本稿では,視覚制御タスクの学習を効率的に行うために,Wild 動画を多用した事前学習型世界モデルの課題について検討する。
本稿では、コンテキストと動的モデリングを明確に分離したContextualized World Models(ContextWM)を紹介する。
実験により,ContextWMを内蔵したWildビデオ事前学習は,モデルベース強化学習のサンプル効率を大幅に向上できることが示された。
論文 参考訳(メタデータ) (2023-05-29T14:29:12Z) - Conditional Image-to-Video Generation with Latent Flow Diffusion Models [18.13991670747915]
条件付き画像合成(cI2V)は、画像と条件から始まる新しい可視映像を合成することを目的としている。
我々は,新しい潜流拡散モデル(LFDM)を用いたcI2Vのアプローチを提案する。
LFDMは、所定の条件に基づいて潜時空間内の光フローシーケンスを合成し、所定の画像をワープする。
論文 参考訳(メタデータ) (2023-03-24T01:54:26Z) - Predictive Experience Replay for Continual Visual Control and
Forecasting [62.06183102362871]
視覚力学モデリングのための新しい連続学習手法を提案し,その視覚制御と予測における有効性について検討する。
まず,タスク固有のダイナミクスをガウスの混合で学習する混合世界モデルを提案し,その上で,破滅的な忘れを克服するための新たなトレーニング戦略を提案する。
我々のモデルは,DeepMind Control と Meta-World のベンチマークにおいて,既存の連続的学習アルゴリズムと視覚的RLアルゴリズムの単純な組み合わせよりも優れている。
論文 参考訳(メタデータ) (2023-03-12T05:08:03Z) - Cycle-Consistent World Models for Domain Independent Latent Imagination [0.0]
高いコストとリスクは、現実世界での自動運転車の訓練を困難にします。
本稿では,Cycleconsistent World Modelsと呼ばれる新しいモデルに基づく強化学習手法を提案する。
論文 参考訳(メタデータ) (2021-10-02T13:55:50Z) - S2RMs: Spatially Structured Recurrent Modules [105.0377129434636]
モジュール構造とテンポラル構造の両方を同時に活用できる動的構造を利用するための一歩を踏み出します。
我々のモデルは利用可能なビューの数に対して堅牢であり、追加のトレーニングなしで新しいタスクに一般化できる。
論文 参考訳(メタデータ) (2020-07-13T17:44:30Z) - A Comprehensive Study on Temporal Modeling for Online Action Detection [50.558313106389335]
オンライン行動検出(OAD)は実用的だが難しい課題であり、近年注目を集めている。
本稿では,4種類の時間的モデリング手法を含むOADの時間的モデリングに関する総合的研究を提案する。
本稿では,THUMOS-14 と TVSeries に対して,近年の最先端手法よりも大きなマージンを有するハイブリッド時間モデルを提案する。
論文 参考訳(メタデータ) (2020-01-21T13:12:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。