論文の概要: Towards More Generalizable One-shot Visual Imitation Learning
- arxiv url: http://arxiv.org/abs/2110.13423v1
- Date: Tue, 26 Oct 2021 05:49:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-28 04:31:35.469527
- Title: Towards More Generalizable One-shot Visual Imitation Learning
- Title(参考訳): より一般化したワンショット視覚模倣学習に向けて
- Authors: Zhao Mandi, Fangchen Liu, Kimin Lee, Pieter Abbeel
- Abstract要約: 汎用ロボットは、幅広いタスクを習得し、過去の経験を生かして、新しいタスクを素早く学ぶことができるべきである。
ワンショット模倣学習(OSIL)は、専門家のデモンストレーションでエージェントを訓練することで、この目標にアプローチする。
我々は、より野心的なマルチタスク設定を調査することで、より高度な一般化能力を追求する。
- 参考スコア(独自算出の注目度): 81.09074706236858
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A general-purpose robot should be able to master a wide range of tasks and
quickly learn a novel one by leveraging past experiences. One-shot imitation
learning (OSIL) approaches this goal by training an agent with (pairs of)
expert demonstrations, such that at test time, it can directly execute a new
task from just one demonstration. However, so far this framework has been
limited to training on many variations of one task, and testing on other unseen
but similar variations of the same task. In this work, we push for a higher
level of generalization ability by investigating a more ambitious multi-task
setup. We introduce a diverse suite of vision-based robot manipulation tasks,
consisting of 7 tasks, a total of 61 variations, and a continuum of instances
within each variation. For consistency and comparison purposes, we first train
and evaluate single-task agents (as done in prior few-shot imitation work). We
then study the multi-task setting, where multi-task training is followed by (i)
one-shot imitation on variations within the training tasks, (ii) one-shot
imitation on new tasks, and (iii) fine-tuning on new tasks. Prior
state-of-the-art, while performing well within some single tasks, struggles in
these harder multi-task settings. To address these limitations, we propose
MOSAIC (Multi-task One-Shot Imitation with self-Attention and Contrastive
learning), which integrates a self-attention model architecture and a temporal
contrastive module to enable better task disambiguation and more robust
representation learning. Our experiments show that MOSAIC outperforms prior
state of the art in learning efficiency, final performance, and learns a
multi-task policy with promising generalization ability via fine-tuning on
novel tasks.
- Abstract(参考訳): 汎用ロボットは、過去の経験を活かして、幅広いタスクを習得し、新しいタスクを素早く学ぶことができるべきである。
ワンショット模倣学習(one-shot imitation learning, osil)は、(複数の)専門家によるデモンストレーションでエージェントを訓練することで、この目標にアプローチする。
しかしながら、これまでこのフレームワークは、1つのタスクの多くのバリエーションのトレーニングと、他の目に見えないが同じタスクの類似のバリエーションのテストに限定されてきた。
本研究では,より野心的なマルチタスク構成を探求することにより,より高度な一般化能力を実現する。
7つのタスク、61のバリエーション、各バリエーションにおけるインスタンスの連続からなる多様な視覚ベースのロボット操作タスクを紹介した。
一貫性と比較のために、まずはシングルタスクエージェントをトレーニングし、評価します。
次に、マルチタスクトレーニングをフォローするマルチタスク設定について検討する。
(i)訓練作業におけるバリエーションに関する一発の模倣
(ii)新規課題に対するワンショット模倣、及び
(iii)新しい作業の微調整。
従来の最先端では、特定のタスクでうまく機能する一方で、これらの難しいマルチタスク設定で苦労しています。
これらの制約に対処するため,我々は,自己着脱モデルアーキテクチャと時間的コントラストモジュールを統合したモザイク(多タスクワンショット模倣と自己着脱とコントラスト学習)を提案する。
実験の結果,MOSAICは学習効率,最終性能において先行技術よりも優れており,新しいタスクを微調整することで,有望な一般化能力を持つマルチタスクポリシーを学習していることがわかった。
関連論文リスト
- LIMT: Language-Informed Multi-Task Visual World Models [6.128332310539627]
マルチタスク強化学習は、サンプルの複雑さの増加と、潜在的に矛盾するタスクの目的のため、非常に難しい。
本稿では,事前学習した言語モデルを利用して意味のあるタスク表現を抽出し,マルチタスクのビジュアルワールドモデルを学習する手法を提案する。
本結果は,世界モデルにおける言語駆動型タスク表現の利点と,より一般的なモデル自由パラダイムに対するモデルベースマルチタスク学習の明確な利点を強調した。
論文 参考訳(メタデータ) (2024-07-18T12:40:58Z) - Continual Robot Learning using Self-Supervised Task Inference [19.635428830237842]
新しいタスクを継続的に学習するための自己教師型タスク推論手法を提案する。
我々は、行動マッチング型自己教師型学習目標を用いて、新しいタスク推論ネットワーク(TINet)を訓練する。
マルチタスクポリシはTINet上に構築され、タスクよりもパフォーマンスを最適化するために強化学習でトレーニングされている。
論文 参考訳(メタデータ) (2023-09-10T09:32:35Z) - Musketeer: Joint Training for Multi-task Vision Language Model with Task Explanation Prompts [75.75548749888029]
本稿では,全てのタスクに対してパラメータを共同で訓練し,複数の異種タスク間で完全に共有する視覚言語モデルを提案する。
単一のモデルで、Musteteerは単一のタスクでトレーニングされた強いベースラインに匹敵する結果を得る。
論文 参考訳(メタデータ) (2023-05-11T17:57:49Z) - OFASys: A Multi-Modal Multi-Task Learning System for Building Generalist
Models [72.8156832931841]
ジェネリストモデルは、単一のモデル内でタスクに依存しない方法で多様なマルチモーダルタスクを実行することができる。
マルチモーダル命令と呼ばれる宣言型タスクインタフェース上に構築された汎用モデル学習システムOFASysをリリースする。
論文 参考訳(メタデータ) (2022-12-08T17:07:09Z) - Is Multi-Task Learning an Upper Bound for Continual Learning? [26.729088618251282]
本稿では,特定のデータ拡張のクラスに対して,各タスクが不変表現を学習することに対応する,連続的な自己指導型学習環境を提案する。
連続学習は、MNIST、CIFAR-10、CIFAR-100など、様々なベンチマークデータセットでマルチタスク学習を上回ることが多い。
論文 参考訳(メタデータ) (2022-10-26T15:45:11Z) - Generalizing to New Tasks via One-Shot Compositional Subgoals [23.15624959305799]
以前は見つからなかったタスクをほとんど、あるいはまったく監督せずに一般化する能力は、現代の機械学習研究において重要な課題である。
適応型「近未来」サブゴールを用いて、模倣学習エージェントを訓練することにより、これらの問題に対処しようとするCASEを導入する。
実験の結果,提案手法は従来よりも30%向上していることがわかった。
論文 参考訳(メタデータ) (2022-05-16T14:30:11Z) - Modular Adaptive Policy Selection for Multi-Task Imitation Learning
through Task Division [60.232542918414985]
マルチタスク学習は、しばしば負の伝達に悩まされ、タスク固有の情報を共有する。
これは、プロトポリケーションをモジュールとして使用して、タスクを共有可能な単純なサブ振る舞いに分割する。
また、タスクを共有サブ行動とタスク固有のサブ行動の両方に自律的に分割する能力を示す。
論文 参考訳(メタデータ) (2022-03-28T15:53:17Z) - Variational Multi-Task Learning with Gumbel-Softmax Priors [105.22406384964144]
マルチタスク学習は、タスク関連性を探究し、個々のタスクを改善することを目的としている。
本稿では,複数のタスクを学習するための一般的な確率的推論フレームワークである変分マルチタスク学習(VMTL)を提案する。
論文 参考訳(メタデータ) (2021-11-09T18:49:45Z) - MT-Opt: Continuous Multi-Task Robotic Reinforcement Learning at Scale [103.7609761511652]
大規模集団ロボット学習システムが,行動のレパートリーを同時に獲得できることを示す。
新しいタスクは、以前学んだタスクから継続的にインスタンス化できる。
我々は,7台のロボットから収集したデータを用いて,実世界のタスク12組でシステムを訓練し,評価する。
論文 参考訳(メタデータ) (2021-04-16T16:38:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。