論文の概要: BIMRL: Brain Inspired Meta Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2210.16530v1
- Date: Sat, 29 Oct 2022 08:34:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 16:25:19.250982
- Title: BIMRL: Brain Inspired Meta Reinforcement Learning
- Title(参考訳): BIMRL:脳に触発されたメタ強化学習
- Authors: Seyed Roozbeh Razavi Rohani, Saeed Hedayatian, Mahdieh Soleymani
Baghshah
- Abstract要約: 効率的なエージェントは、以前の経験を生かして、似ているが新しいタスクや状況に迅速に適応できなければならない。
本稿では,脳にインスパイアされた新しいメモリモジュールとともに,新しい多層アーキテクチャであるBIMRLを紹介する。
提案手法の有効性を実証的に検証し,複数のMiniGrid環境上での強いベースラインの性能と競合するか,あるいは超越して検証する。
- 参考スコア(独自算出の注目度): 5.993003891247583
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sample efficiency has been a key issue in reinforcement learning (RL). An
efficient agent must be able to leverage its prior experiences to quickly adapt
to similar, but new tasks and situations. Meta-RL is one attempt at formalizing
and addressing this issue. Inspired by recent progress in meta-RL, we introduce
BIMRL, a novel multi-layer architecture along with a novel brain-inspired
memory module that will help agents quickly adapt to new tasks within a few
episodes. We also utilize this memory module to design a novel intrinsic reward
that will guide the agent's exploration. Our architecture is inspired by
findings in cognitive neuroscience and is compatible with the knowledge on
connectivity and functionality of different regions in the brain. We
empirically validate the effectiveness of our proposed method by competing with
or surpassing the performance of some strong baselines on multiple MiniGrid
environments.
- Abstract(参考訳): サンプル効率は強化学習(RL)において重要な問題である。
効率的なエージェントは、以前の経験を生かして、似ているが新しいタスクや状況に迅速に適応できなければならない。
Meta-RLはこの問題を形式化し対処する試みのひとつです。
メタRLの最近の進歩にインスパイアされたBIMRLは、脳にインスパイアされた新しいメモリモジュールとともに、新しい多層アーキテクチャであり、エージェントが数回で新しいタスクに迅速に適応するのに役立つ。
また,このメモリモジュールを用いて,エージェントの探索を導く新たな内在的な報酬をデザインする。
私たちのアーキテクチャは認知神経科学の発見にインスパイアされ、脳内の様々な領域の接続性と機能に関する知識と相容れない。
提案手法の有効性を実証的に検証し,複数のミニグリッド環境における強力なベースラインの性能と競合するか,あるいは超えている。
関連論文リスト
- ReLIC: A Recipe for 64k Steps of In-Context Reinforcement Learning for Embodied AI [44.77897322913095]
エンボディエージェントのためのテキスト内強化学習のための新しい手法であるReLICを提案する。
Relicでは、エージェントは64,000ステップのコンテキスト内エクスペリエンスを使用して、新しい環境に適応することができる。
Relicは、専門家によるデモンストレーションでトレーニングを受けなくても、数発の模倣学習が可能であることに気付きました。
論文 参考訳(メタデータ) (2024-10-03T17:58:11Z) - UMBRAE: Unified Multimodal Brain Decoding [43.6339793925953]
脳信号のマルチモーダルデコードであるUMBRAEを提案する。
マルチモーダル脳アライメントのための効率的なユニバーサル脳エンコーダを提案する。
また,対象物固有の特徴を共通の特徴空間にマッピングするクロスオブジェクトトレーニング戦略も導入する。
論文 参考訳(メタデータ) (2024-04-10T17:59:20Z) - Neural Routing in Meta Learning [9.070747377130472]
入力タスクに条件付けされたモデルの部分のみを選択的に使用することにより,現在のメタ学習アルゴリズムのモデル性能を向上させることを目指している。
本稿では、バッチ正規化層におけるスケーリング係数を活用することにより、深層畳み込みニューラルネットワーク(CNN)におけるタスク依存の動的ニューロン選択を研究するアプローチについて述べる。
提案手法であるニューラルルーティング・イン・メタラーニング(NRML)は,数ショットの分類タスクにおいて,既知のメタラーニングベースラインの1つである。
論文 参考訳(メタデータ) (2022-10-14T16:31:24Z) - Meta Reinforcement Learning with Successor Feature Based Context [51.35452583759734]
本稿では,既存のメタRLアルゴリズムと競合する性能を実現するメタRL手法を提案する。
本手法は,複数のタスクに対して同時に高品質なポリシーを学習するだけでなく,短時間のトレーニングで新しいタスクに迅速に適応できる。
論文 参考訳(メタデータ) (2022-07-29T14:52:47Z) - On the Effectiveness of Fine-tuning Versus Meta-reinforcement Learning [71.55412580325743]
本稿では,新しいタスクを微調整したマルチタスク事前学習がメタテスト時間適応によるメタ事前学習と同等かそれ以上に機能することを示す。
マルチタスク事前学習はメタRLよりもシンプルで計算的に安価である傾向があるため、これは将来の研究を奨励している。
論文 参考訳(メタデータ) (2022-06-07T13:24:00Z) - Multitask Adaptation by Retrospective Exploration with Learned World
Models [77.34726150561087]
本稿では,タスク非依存ストレージから取得したMBRLエージェントのトレーニングサンプルを提供するRAMaというメタ学習型アドレッシングモデルを提案する。
このモデルは、期待されるエージェントのパフォーマンスを最大化するために、ストレージから事前のタスクを解く有望な軌道を選択することで訓練される。
論文 参考訳(メタデータ) (2021-10-25T20:02:57Z) - REIN-2: Giving Birth to Prepared Reinforcement Learning Agents Using
Reinforcement Learning Agents [0.0]
本稿では,課題学習の目的を課題(あるいは課題の集合)の目的にシフトさせるメタラーニング手法を提案する。
我々のモデルであるREIN-2は、RLフレームワーク内で構成されたメタ学習スキームであり、その目的は、他のRLエージェントの作り方を学ぶメタRLエージェントを開発することである。
従来の最先端のDeep RLアルゴリズムと比較して、実験結果は、人気のあるOpenAI Gym環境において、我々のモデルの顕著な性能を示している。
論文 参考訳(メタデータ) (2021-10-11T10:13:49Z) - What is Going on Inside Recurrent Meta Reinforcement Learning Agents? [63.58053355357644]
recurrent meta reinforcement learning (meta-rl)エージェントは「学習アルゴリズムの学習」を目的としてrecurrent neural network (rnn)を使用するエージェントである。
部分観測可能なマルコフ決定プロセス(POMDP)フレームワークを用いてメタRL問題を再構成することにより,これらのエージェントの内部動作機構を明らかにする。
論文 参考訳(メタデータ) (2021-04-29T20:34:39Z) - A Dual-Memory Architecture for Reinforcement Learning on Neuromorphic
Platforms [3.0616624345970975]
神経型プラットフォーム上で強化学習を行うための柔軟なアーキテクチャを記述します。
このアーキテクチャはIntelのニューロモーフィックプロセッサを用いて実装され、スパイキングダイナミクスを用いて様々なタスクを解くことを実証した。
本研究は,実世界のRL応用のためのエネルギー効率の良い解法を提案し,RL問題に対するニューロモルフィックプラットフォームの適用性を実証する。
論文 参考訳(メタデータ) (2021-03-05T01:54:22Z) - MetaCURE: Meta Reinforcement Learning with Empowerment-Driven
Exploration [52.48362697163477]
実験により,我々のメタRL法はスパース・リワードタスクにおける最先端のベースラインを著しく上回ることがわかった。
本稿では,活用政策学習とは切り離されたメタRLの探索政策学習問題をモデル化する。
我々は、コンテキスト対応の探索と利用ポリシーを効率よく学習する、新しい非政治メタRLフレームワークを開発する。
論文 参考訳(メタデータ) (2020-06-15T06:56:18Z) - Meta Reinforcement Learning with Autonomous Inference of Subtask
Dependencies [57.27944046925876]
本稿では,タスクがサブタスクグラフによって特徴づけられるような,新しい数発のRL問題を提案し,対処する。
メタ政治を直接学習する代わりに、Subtask Graph Inferenceを使ったメタラーナーを開発した。
実験の結果,2つのグリッドワールド領域とStarCraft II環境において,提案手法が潜在タスクパラメータを正確に推定できることが確認された。
論文 参考訳(メタデータ) (2020-01-01T17:34:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。