論文の概要: A Survey of Meta-Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2301.08028v1
- Date: Thu, 19 Jan 2023 12:01:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-20 15:07:20.049818
- Title: A Survey of Meta-Reinforcement Learning
- Title(参考訳): メタ強化学習に関する調査
- Authors: Jacob Beck, Risto Vuorio, Evan Zheran Liu, Zheng Xiong, Luisa
Zintgraf, Chelsea Finn, Shimon Whiteson
- Abstract要約: 我々は,メタRLと呼ばれるプロセスにおいて,機械学習問題自体として,より優れたRLアルゴリズムを開発した。
本稿では,タスク分布の存在と各タスクに利用可能な学習予算に基づいて,高レベルでメタRL研究をクラスタ化する方法について議論する。
RL実践者のための標準ツールボックスにメタRLを組み込むことの道程について,オープンな問題を提示することによって,結論を下す。
- 参考スコア(独自算出の注目度): 83.95180398234238
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While deep reinforcement learning (RL) has fueled multiple high-profile
successes in machine learning, it is held back from more widespread adoption by
its often poor data efficiency and the limited generality of the policies it
produces. A promising approach for alleviating these limitations is to cast the
development of better RL algorithms as a machine learning problem itself in a
process called meta-RL. Meta-RL is most commonly studied in a problem setting
where, given a distribution of tasks, the goal is to learn a policy that is
capable of adapting to any new task from the task distribution with as little
data as possible. In this survey, we describe the meta-RL problem setting in
detail as well as its major variations. We discuss how, at a high level,
meta-RL research can be clustered based on the presence of a task distribution
and the learning budget available for each individual task. Using these
clusters, we then survey meta-RL algorithms and applications. We conclude by
presenting the open problems on the path to making meta-RL part of the standard
toolbox for a deep RL practitioner.
- Abstract(参考訳): 深層強化学習(deep reinforcement learning, rl)は、マシンラーニングにおいて複数の注目に値する成功を後押ししているが、そのデータ効率の低さと、それが生み出すポリシーの一般的性によって、より広範な採用から遠ざかっている。
これらの制限を緩和するための有望なアプローチは、メタRLと呼ばれるプロセスにおいて機械学習問題自体として、より良いRLアルゴリズムを開発することである。
meta-rlは、タスクの分散が与えられたとき、可能な限り少ないデータでタスクの分散から新しいタスクに適応できるポリシーを学ぶことを目的としている。
本稿では,メタRL問題と,その主なバリエーションについて詳述する。
本稿では,タスク分布の存在と各タスクに利用可能な学習予算に基づいて,メタRL研究を高いレベルでクラスタ化する方法について論じる。
これらのクラスタを用いてメタRLアルゴリズムとアプリケーションを調査します。
RL実践者のための標準ツールボックスにメタRLを組み込むことの道程についてオープンな問題を提示することで、結論を下す。
関連論文リスト
- ArCHer: Training Language Model Agents via Hierarchical Multi-Turn RL [80.10358123795946]
大規模言語モデルを微調整するためのマルチターンRLアルゴリズムを構築するためのフレームワークを開発する。
我々のフレームワークは階層的なRLアプローチを採用し、2つのRLアルゴリズムを並列に実行している。
実験により,ArCHerはエージェントタスクの効率と性能を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2024-02-29T18:45:56Z) - RL$^3$: Boosting Meta Reinforcement Learning via RL inside RL$^2$ [12.111848705677142]
メタRLへの入力において、従来のRLを通してタスク毎に学習されるアクション値を含むハイブリッドアプローチであるRL$3$を提案する。
RL$3$は、RL$2$と比較して、短期的にはデータ効率を保ちながら、長期的には累積的な報酬を多く得ており、アウト・オブ・ディストリビューション・タスクよりも一般化されていることを示す。
論文 参考訳(メタデータ) (2023-06-28T04:16:16Z) - Train Hard, Fight Easy: Robust Meta Reinforcement Learning [78.16589993684698]
実世界のアプリケーションにおける強化学習(RL)の大きな課題は、環境、タスク、クライアントの違いである。
標準的なMRL法は、タスクよりも平均的なリターンを最適化するが、リスクや難易度の高いタスクでは悪い結果に悩まされることが多い。
本研究では, MRL の頑健な目標を制御レベルで定義する。
ロバストメタRLアルゴリズム(RoML)を用いてデータ非効率に対処する
論文 参考訳(メタデータ) (2023-01-26T14:54:39Z) - Meta Reinforcement Learning with Successor Feature Based Context [51.35452583759734]
本稿では,既存のメタRLアルゴリズムと競合する性能を実現するメタRL手法を提案する。
本手法は,複数のタスクに対して同時に高品質なポリシーを学習するだけでなく,短時間のトレーニングで新しいタスクに迅速に適応できる。
論文 参考訳(メタデータ) (2022-07-29T14:52:47Z) - Jump-Start Reinforcement Learning [68.82380421479675]
本稿では、オフラインデータやデモ、あるいは既存のポリシーを使ってRLポリシーを初期化するメタアルゴリズムを提案する。
特に,タスク解決に2つのポリシーを利用するアルゴリズムであるJump-Start Reinforcement Learning (JSRL)を提案する。
実験により、JSRLは既存の模倣と強化学習アルゴリズムを大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2022-04-05T17:25:22Z) - REIN-2: Giving Birth to Prepared Reinforcement Learning Agents Using
Reinforcement Learning Agents [0.0]
本稿では,課題学習の目的を課題(あるいは課題の集合)の目的にシフトさせるメタラーニング手法を提案する。
我々のモデルであるREIN-2は、RLフレームワーク内で構成されたメタ学習スキームであり、その目的は、他のRLエージェントの作り方を学ぶメタRLエージェントを開発することである。
従来の最先端のDeep RLアルゴリズムと比較して、実験結果は、人気のあるOpenAI Gym環境において、我々のモデルの顕著な性能を示している。
論文 参考訳(メタデータ) (2021-10-11T10:13:49Z) - FOCAL: Efficient Fully-Offline Meta-Reinforcement Learning via Distance
Metric Learning and Behavior Regularization [10.243908145832394]
本稿では, オフラインメタ強化学習(OMRL)問題について検討する。これは, 強化学習(RL)アルゴリズムが未知のタスクに迅速に適応できるようにするパラダイムである。
この問題はまだ完全には理解されていないが、2つの大きな課題に対処する必要がある。
我々は、いくつかの単純な設計選択が、最近のアプローチよりも大幅に改善できることを示す分析と洞察を提供する。
論文 参考訳(メタデータ) (2020-10-02T17:13:39Z) - Offline Meta Learning of Exploration [19.172298978914597]
我々は、ベイズ RL (BRL) のビューを取得し、オフラインデータからベイズ最適化ポリシーを学習する。
本研究では,適応型ニューラル信念推定に基づく探索戦略の立案を学習するオフポリチックBRL法を開発した。
我々はこの問題を特徴付け、データ収集と修正手順による解決を提案する。
論文 参考訳(メタデータ) (2020-08-06T12:09:18Z) - MetaCURE: Meta Reinforcement Learning with Empowerment-Driven
Exploration [52.48362697163477]
実験により,我々のメタRL法はスパース・リワードタスクにおける最先端のベースラインを著しく上回ることがわかった。
本稿では,活用政策学習とは切り離されたメタRLの探索政策学習問題をモデル化する。
我々は、コンテキスト対応の探索と利用ポリシーを効率よく学習する、新しい非政治メタRLフレームワークを開発する。
論文 参考訳(メタデータ) (2020-06-15T06:56:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。