論文の概要: Semi-Supervised One-Shot Imitation Learning
- arxiv url: http://arxiv.org/abs/2408.05285v1
- Date: Fri, 9 Aug 2024 18:11:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-13 19:44:18.030715
- Title: Semi-Supervised One-Shot Imitation Learning
- Title(参考訳): セミスーパービジョンワンショット模倣学習
- Authors: Philipp Wu, Kourosh Hakhamaneshi, Yuqing Du, Igor Mordatch, Aravind Rajeswaran, Pieter Abbeel,
- Abstract要約: ワンショットのImitation Learningは、AIエージェントに1つのデモから新しいタスクを学ぶ能力を持たせることを目的としている。
我々は,学習エージェントにトラジェクトリの大規模なデータセットを提示する,半教師付きOSIL問題設定を導入する。
我々は,この半教師付きOSIL設定に適用可能なアルゴリズムを開発した。
- 参考スコア(独自算出の注目度): 83.94646047695412
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One-shot Imitation Learning~(OSIL) aims to imbue AI agents with the ability to learn a new task from a single demonstration. To supervise the learning, OSIL typically requires a prohibitively large number of paired expert demonstrations -- i.e. trajectories corresponding to different variations of the same semantic task. To overcome this limitation, we introduce the semi-supervised OSIL problem setting, where the learning agent is presented with a large dataset of trajectories with no task labels (i.e. an unpaired dataset), along with a small dataset of multiple demonstrations per semantic task (i.e. a paired dataset). This presents a more realistic and practical embodiment of few-shot learning and requires the agent to effectively leverage weak supervision from a large dataset of trajectories. Subsequently, we develop an algorithm specifically applicable to this semi-supervised OSIL setting. Our approach first learns an embedding space where different tasks cluster uniquely. We utilize this embedding space and the clustering it supports to self-generate pairings between trajectories in the large unpaired dataset. Through empirical results on simulated control tasks, we demonstrate that OSIL models trained on such self-generated pairings are competitive with OSIL models trained with ground-truth labels, presenting a major advancement in the label-efficiency of OSIL.
- Abstract(参考訳): One-shot Imitation Learning~(OSIL)は、AIエージェントに1つのデモから新しいタスクを学ぶ能力を持たせることを目的としている。
学習を監督するためには、OSILは通常、同じ意味タスクの異なるバリエーションに対応する軌跡として、非常に多くのペアの専門家によるデモンストレーションを必要とする。
この制限を克服するために,学習エージェントにタスクラベルのない大量のトラジェクトリデータセット(未ペアデータセット)とセマンティックタスク毎の複数のデモンストレーションデータセット(ペアデータセット)を提示する,半教師付きOSIL問題設定を導入する。
これは、より現実的で実践的な、数発の学習の実施を示し、エージェントは、大きなトラジェクトリのデータセットからの弱い監督を効果的に活用する必要がある。
次に,この半教師付きOSIL設定に適用可能なアルゴリズムを開発した。
我々のアプローチはまず、異なるタスクが一意にクラスタされる埋め込み空間を学習する。
我々は、この埋め込み空間と、それがサポートするクラスタリングを利用して、大きな未ペアデータセットの軌跡間のペアリングを自己生成する。
シミュレーション制御タスクの実証的な結果から,このような自己生成ペアリングで訓練されたOSILモデルと,地上構造ラベルで訓練されたOSILモデルとの競合が示され,OSILのラベル効率の大幅な向上が示されている。
関連論文リスト
- Incremental Self-training for Semi-supervised Learning [56.57057576885672]
ISTは単純だが有効であり、既存の自己学習に基づく半教師あり学習手法に適合する。
提案したISTを5つのデータセットと2種類のバックボーンで検証し,認識精度と学習速度を効果的に向上させる。
論文 参考訳(メタデータ) (2024-04-14T05:02:00Z) - Data-CUBE: Data Curriculum for Instruction-based Sentence Representation
Learning [85.66907881270785]
本稿では,学習用マルチタスクデータの順序を列挙するデータカリキュラム,すなわちData-CUBEを提案する。
タスクレベルでは、タスク間の干渉リスクを最小化するために最適なタスクオーダーを見つけることを目的としている。
インスタンスレベルでは、タスク毎のすべてのインスタンスの難易度を測定し、トレーニングのためにそれらを簡単に微分できるミニバッチに分割します。
論文 参考訳(メタデータ) (2024-01-07T18:12:20Z) - GenCo: An Auxiliary Generator from Contrastive Learning for Enhanced
Few-Shot Learning in Remote Sensing [9.504503675097137]
我々は、バックボーンを事前訓練し、同時に特徴サンプルの変種を探索するジェネレータベースのコントラスト学習フレームワーク(GenCo)を導入する。
微調整では、補助ジェネレータを使用して、特徴空間内の限られたラベル付きデータサンプルを濃縮することができる。
本稿では,2つの重要なリモートセンシングデータセットにおいて,この手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-07-27T03:59:19Z) - Coreset Sampling from Open-Set for Fine-Grained Self-Supervised Learning [10.57079240576682]
本稿では,大規模未ラベルのオープンセットが利用可能であるという前提の下で,オープンセットの自己改善型学習問題を新たに導入する。
問題設定では、オープンセットとターゲットデータセットの分布ミスマッチを考慮することが重要である。
実験により,SimCoreは表現学習性能を大幅に向上することを示した。
論文 参考訳(メタデータ) (2023-03-20T13:38:29Z) - Meta-Learning with Less Forgetting on Large-Scale Non-Stationary Task
Distributions [8.88133567816717]
この問題をSETSと略記したEvolving Task diStributionsを用いた半教師付きメタラーニングと呼ぶ。
OOD Robust and knowleDge presErved semi-supeRvised meta-learning approach (ORDER)を提案する。
具体的には、ORDERは、未ラベルのOODデータでモデルを堅牢化するための新しい相互情報正規化を導入し、特徴空間における以前に学習された知識を記憶するために最適なトランスポート正規化を採用する。
論文 参考訳(メタデータ) (2022-09-03T21:22:14Z) - Continual Barlow Twins: continual self-supervised learning for remote
sensing semantic segmentation [8.775728170359024]
リモートセンシングアプリケーションにSSL(Self-Supervised Learning)とCL(Continual Learning)を併用するアルゴリズムを提案し,CBT(Continual Barlow Twins)と呼ぶ。
CBTは、バラ・ツインズ(Barlow Twins)という最も単純な自己超越技法の1つと、破滅的な忘れ物を避けるための弾性重み統合法(Elastic Weight Consolidation)の利点を組み合わせている。
高度に異質な地球観測データセット上でSSL手法を初めて評価し,これらの戦略の有効性を示した。
論文 参考訳(メタデータ) (2022-05-23T14:02:12Z) - Trash to Treasure: Harvesting OOD Data with Cross-Modal Matching for
Open-Set Semi-Supervised Learning [101.28281124670647]
オープンセット半教師付き学習(Open-set SSL)では、ラベルなしデータにOOD(Out-of-distribution)サンプルを含む、難しいが実用的なシナリオを調査する。
我々は、OODデータの存在を効果的に活用し、特徴学習を増強する新しいトレーニングメカニズムを提案する。
我々のアプローチは、オープンセットSSLのパフォーマンスを大幅に向上させ、最先端技術よりも大きなマージンで性能を向上します。
論文 参考訳(メタデータ) (2021-08-12T09:14:44Z) - Lifelong Learning Without a Task Oracle [13.331659934508764]
監視されたディープニューラルネットワークは、新しいタスクが学習されると、古いタスクの精度が大幅に低下することが知られている。
本稿では,メモリオーバーヘッドの少ないタスク割り当てマップの提案と比較を行う。
最高のパフォーマンスの変種は、平均的なパラメータメモリの増大を1.7%に抑えるだけである。
論文 参考訳(メタデータ) (2020-11-09T21:30:31Z) - DAGA: Data Augmentation with a Generation Approach for Low-resource
Tagging Tasks [88.62288327934499]
線形化ラベル付き文に基づいて訓練された言語モデルを用いた新しい拡張手法を提案する。
本手法は, 教師付き設定と半教師付き設定の両方に適用可能である。
論文 参考訳(メタデータ) (2020-11-03T07:49:15Z) - Learning to Count in the Crowd from Limited Labeled Data [109.2954525909007]
我々は,限られた数のラベル付きサンプルから参加者を数えることを学ぶことで,アノテーションの努力を減らすことに重点を置いている。
具体的には,未ラベルデータに対する擬似地下真理推定を含むガウス過程に基づく反復学習機構を提案する。
論文 参考訳(メタデータ) (2020-07-07T04:17:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。