論文の概要: Hierarchically Decoupled Imitation for Morphological Transfer
- arxiv url: http://arxiv.org/abs/2003.01709v2
- Date: Mon, 31 Aug 2020 07:26:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 21:40:09.596443
- Title: Hierarchically Decoupled Imitation for Morphological Transfer
- Title(参考訳): 形態的移動に対する階層的に分離した模倣
- Authors: Donald J. Hejna III, Pieter Abbeel, Lerrel Pinto
- Abstract要約: 形態学的に単純なエージェントから学習情報を転送することで、より複雑なエージェントのサンプル効率を大幅に向上させることができることを示す。
まず、より単純なエージェントの低レベルを模倣するために複雑なエージェントの低レベルをインセンティブ化すると、ゼロショット高レベル転送が大幅に改善されることを示す。
第2に,高レベルのKL正規化学習が学習を安定させ,モデム崩壊を防ぐことを示す。
- 参考スコア(独自算出の注目度): 95.19299356298876
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning long-range behaviors on complex high-dimensional agents is a
fundamental problem in robot learning. For such tasks, we argue that
transferring learned information from a morphologically simpler agent can
massively improve the sample efficiency of a more complex one. To this end, we
propose a hierarchical decoupling of policies into two parts: an independently
learned low-level policy and a transferable high-level policy. To remedy poor
transfer performance due to mismatch in morphologies, we contribute two key
ideas. First, we show that incentivizing a complex agent's low-level to imitate
a simpler agent's low-level significantly improves zero-shot high-level
transfer. Second, we show that KL-regularized training of the high level
stabilizes learning and prevents mode-collapse. Finally, on a suite of publicly
released navigation and manipulation environments, we demonstrate the
applicability of hierarchical transfer on long-range tasks across morphologies.
Our code and videos can be found at
https://sites.google.com/berkeley.edu/morphology-transfer.
- Abstract(参考訳): 複雑な高次元エージェント上での長距離行動の学習は、ロボット学習の基本的な問題である。
このような課題に対して,形態学的に単純なエージェントから学習情報を転送することで,より複雑なエージェントのサンプル効率を大幅に向上させることができる。
この目的のために,我々は,独立して学習した低レベル政策と移行可能な高レベル政策の2つの部分に分けた階層的分離を提案する。
形態学におけるミスマッチによる転送性能の低下を補うために、我々は2つの重要なアイデアを貢献する。
まず、より単純なエージェントの低レベルを模倣するために複雑なエージェントの低レベルをインセンティブ化すると、ゼロショット高レベル転送が大幅に改善することを示す。
第2に,高レベルのKL正規化学習が学習を安定させ,モード崩壊を防ぐことを示す。
最後に、公にリリースされたナビゲーションおよび操作環境のスイート上で、形態学を横断する長距離タスクにおける階層的転送の適用性を示す。
私たちのコードとビデオはhttps://sites.google.com/berkeley.edu/morphology-transfer.orgにある。
関連論文リスト
- Multi-Agent Transfer Learning via Temporal Contrastive Learning [8.487274986507922]
本稿では,深層多エージェント強化学習のための新しい伝達学習フレームワークを提案する。
このアプローチは、ゴール条件付きポリシーと時間的コントラスト学習を自動的に組み合わせて、意味のあるサブゴールを発見する。
論文 参考訳(メタデータ) (2024-06-03T14:42:14Z) - Reinforcement Learning with Options and State Representation [105.82346211739433]
この論文は、強化学習分野を探求し、改良された手法を構築することを目的としている。
階層的強化学習(Hierarchical Reinforcement Learning)として知られる階層的な方法で学習タスクを分解することで、そのような目標に対処する。
論文 参考訳(メタデータ) (2024-03-16T08:30:55Z) - Investigating the role of model-based learning in exploration and
transfer [11.652741003589027]
本稿では,モデルベースエージェントの文脈における伝達学習について検討する。
モデルベースアプローチは,移動学習におけるモデルフリーベースラインよりも優れていることがわかった。
本研究の結果から,本質的な探索と環境モデルが組み合わさって,自己監督的かつ新たな報酬関数に一般化可能なエージェントの方向性を示すことが明らかとなった。
論文 参考訳(メタデータ) (2023-02-08T11:49:58Z) - TransfQMix: Transformers for Leveraging the Graph Structure of
Multi-Agent Reinforcement Learning Problems [0.0]
TransfQMixは、トランスフォーマーを使用して潜在グラフ構造を活用し、より良いコーディネーションポリシーを学習する新しいアプローチである。
我々の変換器Q-mixerは、エージェントの内部状態と外部状態を含む大きなグラフから単調混合関数を学習する。
本稿では,TransfQMixのSpreadおよびStarCraft II環境における性能について報告する。
論文 参考訳(メタデータ) (2023-01-13T00:07:08Z) - PEBBLE: Feedback-Efficient Interactive Reinforcement Learning via
Relabeling Experience and Unsupervised Pre-training [94.87393610927812]
我々は、フィードバックと非政治学習の両方の長所を生かした、非政治的、インタラクティブな強化学習アルゴリズムを提案する。
提案手法は,従来ヒト・イン・ザ・ループ法で検討されていたよりも複雑度の高いタスクを学習可能であることを実証する。
論文 参考訳(メタデータ) (2021-06-09T14:10:50Z) - Adaptive Policy Transfer in Reinforcement Learning [9.594432031144715]
我々は,対象タスクの解法を学ぶために,ソースポリシーを適応させる「適応から学習」可能な原則的メカニズムを導入する。
提案手法は適応と探索から学習をシームレスに組み合わせることを学び、堅牢な政策伝達アルゴリズムに導くことを示した。
論文 参考訳(メタデータ) (2021-05-10T22:42:03Z) - Task-Agnostic Morphology Evolution [94.97384298872286]
モルフォロジーと振る舞いを共同適用する現在のアプローチでは、特定のタスクの報酬をモルフォロジー最適化のシグナルとして使用します。
これはしばしば高価なポリシー最適化を必要とし、一般化するために構築されていないタスクに依存した形態をもたらす。
我々は,これらの問題を緩和するための新しいアプローチであるタスク非依存形態進化(tame)を提案する。
論文 参考訳(メタデータ) (2021-02-25T18:59:21Z) - Continuous Transition: Improving Sample Efficiency for Continuous
Control Problems via MixUp [119.69304125647785]
本稿では,連続的遷移を構築するための簡潔かつ強力な手法を提案する。
具体的には、連続的な遷移を線形に補間することにより、トレーニングのための新しい遷移を合成することを提案する。
また, 建設過程を自動案内する判別器を開発した。
論文 参考訳(メタデータ) (2020-11-30T01:20:23Z) - RODE: Learning Roles to Decompose Multi-Agent Tasks [69.56458960841165]
ロールベースの学習は、ロールを使って複雑なタスクを分解することで、スケーラブルなマルチエージェント学習を実現するという約束を持っている。
本稿では,まず,環境および他のエージェントに対する影響に応じて協調行動空間をクラスタリングすることで,制約された役割行動空間に分解することを提案する。
これらの進歩により、我々の手法は、挑戦的なStarCraft IIマイクロマネジメントベンチマークを構成する14シナリオのうち10シナリオにおいて、現在の最先端のMARLアルゴリズムよりも優れています。
論文 参考訳(メタデータ) (2020-10-04T09:20:59Z) - How Transferable are the Representations Learned by Deep Q Agents? [13.740174266824532]
我々は、Deep Reinforcement Learningのサンプル複雑さの源泉について考察する。
我々は、移行学習の利点を、ゼロからポリシーを学ぶことと比較する。
転送による利点は、一般に非常に可変であり、タスクのペア間で非対称である。
論文 参考訳(メタデータ) (2020-02-24T00:23:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。