論文の概要: Learning from Symmetry: Meta-Reinforcement Learning with Symmetrical
Behaviors and Language Instructions
- arxiv url: http://arxiv.org/abs/2209.10656v2
- Date: Tue, 4 Jul 2023 11:50:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-07 00:04:14.823834
- Title: Learning from Symmetry: Meta-Reinforcement Learning with Symmetrical
Behaviors and Language Instructions
- Title(参考訳): 対称性から学ぶ--対称行動と言語指示を用いたメタ強化学習
- Authors: Xiangtong Yao, Zhenshan Bing, Genghang Zhuang, Kejia Chen, Hongkuan
Zhou, Kai Huang and Alois Knoll
- Abstract要約: 言語条件付きメタRLは、言語命令とエージェントの動作を一致させることで、一般化能力を向上させる。
対称な動作や言語命令を用いて,新しいタスクを効率的に学習することのできる,デュアルMDPメタ強化学習手法を提案する。
- 参考スコア(独自算出の注目度): 10.357414274820577
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Meta-reinforcement learning (meta-RL) is a promising approach that enables
the agent to learn new tasks quickly. However, most meta-RL algorithms show
poor generalization in multi-task scenarios due to the insufficient task
information provided only by rewards. Language-conditioned meta-RL improves the
generalization capability by matching language instructions with the agent's
behaviors. While both behaviors and language instructions have symmetry, which
can speed up human learning of new knowledge. Thus, combining symmetry and
language instructions into meta-RL can help improve the algorithm's
generalization and learning efficiency. We propose a dual-MDP
meta-reinforcement learning method that enables learning new tasks efficiently
with symmetrical behaviors and language instructions. We evaluate our method in
multiple challenging manipulation tasks, and experimental results show that our
method can greatly improve the generalization and learning efficiency of
meta-reinforcement learning. Videos are available at
https://tumi6robot.wixsite.com/symmetry/.
- Abstract(参考訳): メタ強化学習(Meta-RL)は,エージェントが新しいタスクを素早く学習できるようにする,有望なアプローチである。
しかし、ほとんどのメタRLアルゴリズムは、報酬のみによって提供されるタスク情報不足のため、マルチタスクシナリオでの一般化が不十分である。
言語条件付きメタRLは、言語命令とエージェントの動作をマッチングすることで、一般化能力を向上させる。
行動と言語命令の両方に対称性があり、新しい知識の人間の学習を加速させる。
したがって、対称性と言語命令をメタRLに組み合わせることで、アルゴリズムの一般化と学習効率を向上させることができる。
対称な動作や言語命令を用いて,新しいタスクを効率的に学習することのできる,デュアルMDPメタ強化学習手法を提案する。
提案手法は,複数の難解な操作課題において評価され,実験により,メタ強化学習の一般化と学習効率が大幅に向上することが示された。
ビデオはhttps://tumi6robot.wixsite.com/symmetry/。
関連論文リスト
- ConML: A Universal Meta-Learning Framework with Task-Level Contrastive Learning [49.447777286862994]
ConMLは、さまざまなメタ学習アルゴリズムに適用可能な、普遍的なメタ学習フレームワークである。
我々は、ConMLが最適化ベース、メートル法ベース、およびアモータイズベースメタ学習アルゴリズムとシームレスに統合できることを実証した。
論文 参考訳(メタデータ) (2024-10-08T12:22:10Z) - Boosting Natural Language Generation from Instructions with
Meta-Learning [43.64522457686405]
最近の研究によると、言語モデル(LM)はマルチタスクで訓練されている。
Textitinstructional Learning (MTIL) は多様なNLPを解くことができる。
即時チューニングよりもパフォーマンスが向上したタスク。
本稿では,MTILに適用したメタラーニングが,ゼロショット設定における未確認タスクへの一般化をさらに改善できるかどうかを検討する。
論文 参考訳(メタデータ) (2022-10-20T22:23:23Z) - Learning Action Translator for Meta Reinforcement Learning on
Sparse-Reward Tasks [56.63855534940827]
本研究は,訓練作業中の行動伝達子を学習するための,新たな客観的機能を導入する。
理論的には、転送されたポリシーとアクショントランスレータの値が、ソースポリシーの値に近似可能であることを検証する。
本稿では,アクショントランスレータとコンテキストベースメタRLアルゴリズムを組み合わせることで,データ収集の効率化と,メタトレーニング時の効率的な探索を提案する。
論文 参考訳(メタデータ) (2022-07-19T04:58:06Z) - On the Effectiveness of Fine-tuning Versus Meta-reinforcement Learning [71.55412580325743]
本稿では,新しいタスクを微調整したマルチタスク事前学習がメタテスト時間適応によるメタ事前学習と同等かそれ以上に機能することを示す。
マルチタスク事前学習はメタRLよりもシンプルで計算的に安価である傾向があるため、これは将来の研究を奨励している。
論文 参考訳(メタデータ) (2022-06-07T13:24:00Z) - Learning an Explicit Hyperparameter Prediction Function Conditioned on
Tasks [62.63852372239708]
メタ学習は、観察されたタスクから機械学習の学習方法論を学び、新しいクエリタスクに一般化することを目的としている。
我々は、これらの学習手法を、全てのトレーニングタスクで共有される明示的なハイパーパラメータ予測関数の学習として解釈する。
このような設定は、メタ学習方法論が多様なクエリタスクに柔軟に適合できることを保証する。
論文 参考訳(メタデータ) (2021-07-06T04:05:08Z) - Meta-learning the Learning Trends Shared Across Tasks [123.10294801296926]
グラディエントベースのメタ学習アルゴリズムは、限られたデータで新しいタスクに素早く適応する。
既存のメタ学習アプローチは、適応中の現在のタスク情報にのみ依存する。
パターン認識型メタラーニング手法を提案する。
論文 参考訳(メタデータ) (2020-10-19T08:06:47Z) - FOCAL: Efficient Fully-Offline Meta-Reinforcement Learning via Distance
Metric Learning and Behavior Regularization [10.243908145832394]
本稿では, オフラインメタ強化学習(OMRL)問題について検討する。これは, 強化学習(RL)アルゴリズムが未知のタスクに迅速に適応できるようにするパラダイムである。
この問題はまだ完全には理解されていないが、2つの大きな課題に対処する必要がある。
我々は、いくつかの単純な設計選択が、最近のアプローチよりも大幅に改善できることを示す分析と洞察を提供する。
論文 参考訳(メタデータ) (2020-10-02T17:13:39Z) - Pre-training Text Representations as Meta Learning [113.3361289756749]
本稿では,下流タスクを効果的に学習するために,モデルがテキスト表現を学習する能力を直接最適化する学習アルゴリズムを提案する。
マルチタスク事前学習とモデル非依存型メタラーニングの間には,一連のメタトレインステップによる本質的な関係があることが示されている。
論文 参考訳(メタデータ) (2020-04-12T09:05:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。