論文の概要: Transfering Hierarchical Structure with Dual Meta Imitation Learning
- arxiv url: http://arxiv.org/abs/2201.11981v1
- Date: Fri, 28 Jan 2022 08:22:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-31 15:52:02.888375
- Title: Transfering Hierarchical Structure with Dual Meta Imitation Learning
- Title(参考訳): 二重メタ模倣学習による階層構造伝達
- Authors: Chongkai Gao, Yizhou Jiang, Feng Chen
- Abstract要約: モデルに依存しないメタ学習を用いて,ハイレベルネットワークとサブスキルを反復的にメタ学習する階層的メタ模倣学習法を提案する。
そこで我々は,Meta-world citemetaworld ベンチマークによる最新の数発の模倣学習性能と,Kitchen 環境の長期タスクにおける競合結果を得た。
- 参考スコア(独自算出の注目度): 4.868214177205893
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hierarchical Imitation Learning (HIL) is an effective way for robots to learn
sub-skills from long-horizon unsegmented demonstrations. However, the learned
hierarchical structure lacks the mechanism to transfer across multi-tasks or to
new tasks, which makes them have to learn from scratch when facing a new
situation. Transferring and reorganizing modular sub-skills require fast
adaptation ability of the whole hierarchical structure. In this work, we
propose Dual Meta Imitation Learning (DMIL), a hierarchical meta imitation
learning method where the high-level network and sub-skills are iteratively
meta-learned with model-agnostic meta-learning. DMIL uses the likelihood of
state-action pairs from each sub-skill as the supervision for the high-level
network adaptation, and use the adapted high-level network to determine
different data set for each sub-skill adaptation. We theoretically prove the
convergence of the iterative training process of DMIL and establish the
connection between DMIL and Expectation-Maximization algorithm. Empirically, we
achieve state-of-the-art few-shot imitation learning performance on the
Meta-world \cite{metaworld} benchmark and competitive results on long-horizon
tasks of Kitchen environments.
- Abstract(参考訳): 階層的模倣学習(hil)は、ロボットが長いホリゾンのデモからサブスキルを学ぶ効果的な方法である。
しかし、学習された階層構造は、マルチタスクや新しいタスクに転送するメカニズムを欠いているため、新しい状況に直面した時にスクラッチから学ぶ必要がある。
モジュラーサブスキルの転送と再構成は階層構造全体の迅速な適応能力を必要とする。
本研究では,ハイレベルネットワークとサブスキルをモデルに依存しないメタ学習で反復的にメタ学習する階層的メタ模倣学習法であるDual Meta Imitation Learning (DMIL)を提案する。
DMILは、各サブスキルからのステートアクションペアの可能性をハイレベルネットワーク適応の監督に利用し、適応されたハイレベルネットワークを使用して、サブスキル適応毎に異なるデータセットを決定する。
我々は,DMILの反復学習過程の収束を理論的に証明し,DMILと期待最大化アルゴリズムの接続を確立する。
実験により,Meta-world \cite{metaworld} ベンチマークによる最先端数発の模倣学習性能と,Kitchen 環境の長期タスクにおける競合結果が得られた。
関連論文リスト
- ConML: A Universal Meta-Learning Framework with Task-Level Contrastive Learning [49.447777286862994]
ConMLは、さまざまなメタ学習アルゴリズムに適用可能な、普遍的なメタ学習フレームワークである。
我々は、ConMLが最適化ベース、メートル法ベース、およびアモータイズベースメタ学習アルゴリズムとシームレスに統合できることを実証した。
論文 参考訳(メタデータ) (2024-10-08T12:22:10Z) - MetaModulation: Learning Variational Feature Hierarchies for Few-Shot
Learning with Fewer Tasks [63.016244188951696]
本稿では,タスクを減らした少数ショット学習手法を提案する。
メタトレーニングタスクを増やすために、さまざまなバッチレベルでパラメータを変更します。
また,変分法を取り入れた学習的変分特徴階層も導入する。
論文 参考訳(メタデータ) (2023-05-17T15:47:47Z) - Meta-Learning via Classifier(-free) Guidance [5.812784742024491]
最先端のメタ学習技術は、目に見えないタスクへのゼロショット適応を最適化しない。
本稿では,自然言語指導によるゼロショット性能向上のためのメタ学習手法を提案する。
論文 参考訳(メタデータ) (2022-10-17T11:09:35Z) - Meta-Learning with Self-Improving Momentum Target [72.98879709228981]
メタラーナーの性能を向上させるために,SiMT(Self-improving Momentum Target)を提案する。
SiMTはメタラーナーの時間アンサンブルから適応してターゲットモデルを生成する。
我々は、SiMTが幅広いメタ学習手法と組み合わせることで、大きなパフォーマンス向上をもたらすことを示す。
論文 参考訳(メタデータ) (2022-10-11T06:45:15Z) - Meta-Learning with Fewer Tasks through Task Interpolation [67.03769747726666]
現在のメタ学習アルゴリズムは多数のメタトレーニングタスクを必要としており、実際のシナリオではアクセスできない可能性がある。
タスクグラデーションを用いたメタラーニング(MLTI)により,タスクのペアをランダムにサンプリングし,対応する特徴やラベルを補間することにより,タスクを効果的に生成する。
実証的な実験では,提案する汎用MLTIフレームワークが代表的なメタ学習アルゴリズムと互換性があり,他の最先端戦略を一貫して上回っていることがわかった。
論文 参考訳(メタデータ) (2021-06-04T20:15:34Z) - MetaGater: Fast Learning of Conditional Channel Gated Networks via
Federated Meta-Learning [46.79356071007187]
本稿では,バックボーンネットワークとチャネルゲーティングを協調的にトレーニングするための総合的なアプローチを提案する。
我々は,バックボーンネットワークとゲーティングモジュールの両方において,優れたメタ初期化を共同で学習するための,連携型メタ学習手法を開発した。
論文 参考訳(メタデータ) (2020-11-25T04:26:23Z) - Meta-Learning of Structured Task Distributions in Humans and Machines [15.34209852089588]
メタラーニングの評価は依然として課題であり、メタラーニングが実際にタスク内に埋め込まれた構造を使っているかどうかを見逃すことができる。
我々は,モデルなし強化学習で訓練されたリカレントネットワークである標準的なメタ学習エージェントを訓練し,それを人間のパフォーマンスと比較する。
エージェントはNullタスク分布において優れているのに対し、構造化されたタスク分布では人間の方が優れている二重解離が見つかる。
論文 参考訳(メタデータ) (2020-10-05T20:18:10Z) - MetaPerturb: Transferable Regularizer for Heterogeneous Tasks and
Architectures [61.73533544385352]
本稿ではメタパーターブ(MetaPerturb)というトランスファー可能な摂動モデルを提案する。
MetaPerturbは、レイヤやタスクにまたがる多様な分散を訓練したセット関数であるため、異種タスクやアーキテクチャを一般化することができる。
論文 参考訳(メタデータ) (2020-06-13T02:54:59Z) - Automated Relational Meta-learning [95.02216511235191]
本稿では,クロスタスク関係を自動的に抽出し,メタ知識グラフを構築する自動リレーショナルメタ学習フレームワークを提案する。
我々は,2次元玩具の回帰と少数ショット画像分類に関する広範な実験を行い,ARMLが最先端のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-01-03T07:02:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。