論文の概要: Adaptive Task Sampling for Meta-Learning
- arxiv url: http://arxiv.org/abs/2007.08735v1
- Date: Fri, 17 Jul 2020 03:15:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 13:21:59.884815
- Title: Adaptive Task Sampling for Meta-Learning
- Title(参考訳): メタラーニングのための適応的タスクサンプリング
- Authors: Chenghao Liu and Zhihao Wang and Doyen Sahoo and Yuan Fang and Kun
Zhang and Steven C.H. Hoi
- Abstract要約: 数ショットの分類のためのメタラーニングの鍵となるアイデアは、テスト時に直面した数ショットの状況を模倣することである。
一般化性能を向上させるための適応型タスクサンプリング手法を提案する。
- 参考スコア(独自算出の注目度): 79.61146834134459
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Meta-learning methods have been extensively studied and applied in computer
vision, especially for few-shot classification tasks. The key idea of
meta-learning for few-shot classification is to mimic the few-shot situations
faced at test time by randomly sampling classes in meta-training data to
construct few-shot tasks for episodic training. While a rich line of work
focuses solely on how to extract meta-knowledge across tasks, we exploit the
complementary problem on how to generate informative tasks. We argue that the
randomly sampled tasks could be sub-optimal and uninformative (e.g., the task
of classifying "dog" from "laptop" is often trivial) to the meta-learner. In
this paper, we propose an adaptive task sampling method to improve the
generalization performance. Unlike instance based sampling, task based sampling
is much more challenging due to the implicit definition of the task in each
episode. Therefore, we accordingly propose a greedy class-pair based sampling
method, which selects difficult tasks according to class-pair potentials. We
evaluate our adaptive task sampling method on two few-shot classification
benchmarks, and it achieves consistent improvements across different feature
backbones, meta-learning algorithms and datasets.
- Abstract(参考訳): メタラーニング手法はコンピュータビジョン、特に数少ない分類タスクで広く研究され、応用されてきた。
メタトレーニングデータ中のクラスをランダムにサンプリングし、エピソード訓練のための少数ショットタスクを構築することで、テスト時に直面する少数のショット状況を模倣する。
タスク間でメタ知識を抽出する方法にのみ焦点をあてたリッチな作業ラインでは、情報的タスクを生成する方法において補完的な問題を利用する。
ランダムにサンプリングされたタスクは、準最適かつ非形式的(例えば、"dog" を"laptop" からメタリーナーに分類するタスクは、しばしば自明である)である。
本稿では,一般化性能を向上させるための適応的タスクサンプリング手法を提案する。
インスタンスベースのサンプリングとは異なり、タスクベースのサンプリングは各エピソードにおけるタスクの暗黙的な定義のため、はるかに難しい。
そこで本研究では,クラスペアのポテンシャルに応じて困難なタスクを選択する,グリーディなクラスペアベースサンプリング手法を提案する。
2つの数ショット分類ベンチマークで適応的タスクサンプリング法を評価し,様々な機能バックボーン,メタラーニングアルゴリズム,データセットに対して一貫した改善を実現する。
関連論文リスト
- Meta-Learning with Heterogeneous Tasks [42.695853959923625]
HeTRoM(Heterogeneous Tasks Robust Meta-learning)
双方向最適化に基づく効率的な反復最適化アルゴリズム
その結果,提案手法の柔軟性が示され,多様なタスク設定に適応できることがわかった。
論文 参考訳(メタデータ) (2024-10-24T16:32:23Z) - Robust Meta-Reinforcement Learning with Curriculum-Based Task Sampling [0.0]
RMRL-GTS(Robost Meta Reinforcement Learning with Guided Task Sampling)は,スコアとエポックに基づいてタスクサンプリングを制限する効果的な手法であることを示す。
ロバストなメタRLを実現するためには、低得点のタスクを集中的にサンプリングするだけでなく、サンプリングすべきタスクのタスク領域の制限と拡張も必要である。
論文 参考訳(メタデータ) (2022-03-31T05:16:24Z) - Meta-Sampler: Almost-Universal yet Task-Oriented Sampling for Point
Clouds [46.33828400918886]
複数のタスクにまたがって、ほぼ普遍的なメタサンプルをトレーニングする方法を示します。
このメタサンプルは、異なるデータセットやネットワーク、あるいは異なるタスクに適用した場合、迅速に微調整できる。
論文 参考訳(メタデータ) (2022-03-30T02:21:34Z) - Meta-Learning with Fewer Tasks through Task Interpolation [67.03769747726666]
現在のメタ学習アルゴリズムは多数のメタトレーニングタスクを必要としており、実際のシナリオではアクセスできない可能性がある。
タスクグラデーションを用いたメタラーニング(MLTI)により,タスクのペアをランダムにサンプリングし,対応する特徴やラベルを補間することにより,タスクを効果的に生成する。
実証的な実験では,提案する汎用MLTIフレームワークが代表的なメタ学習アルゴリズムと互換性があり,他の最先端戦略を一貫して上回っていることがわかった。
論文 参考訳(メタデータ) (2021-06-04T20:15:34Z) - Conditional Meta-Learning of Linear Representations [57.90025697492041]
表現学習のための標準メタラーニングは、複数のタスク間で共有される共通の表現を見つけることを目的とする。
本研究では,タスクの側情報を手作業に適した表現にマッピングし,条件付け関数を推定することで,この問題を克服する。
この利点を実用的に活用できるメタアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-30T12:02:14Z) - Meta-Regularization by Enforcing Mutual-Exclusiveness [0.8057006406834467]
本稿では,メタ学習時の情報フローをモデル設計者が制御できるように,メタ学習モデルの正規化手法を提案する。
提案した正規化関数は,Omniglotデータセット上で$sim$$36%の精度向上を示す。
論文 参考訳(メタデータ) (2021-01-24T22:57:19Z) - Improving Generalization in Meta-learning via Task Augmentation [69.83677015207527]
本稿ではMetaMixとChannel Shuffleの2つのタスク拡張手法を提案する。
MetaMixとChannel Shuffleはどちらも、多くのデータセットにまたがる大きなマージンによって、最先端の結果を上回っている。
論文 参考訳(メタデータ) (2020-07-26T01:50:42Z) - Expert Training: Task Hardness Aware Meta-Learning for Few-Shot
Classification [62.10696018098057]
そこで本研究では,訓練課題を適切に整理するためのメタトレーニング戦略を提案する。
タスクの難易度を推定する訓練手順にタスク難易度認識モジュールを設計して統合する。
miniImageNet と tieredImageNetSketch のデータセットによる実験結果から,メタラーナーは専門家のトレーニング戦略によりより良い結果が得られることが示された。
論文 参考訳(メタデータ) (2020-07-13T08:49:00Z) - Few Is Enough: Task-Augmented Active Meta-Learning for Brain Cell
Classification [8.998976678920236]
本稿では,Deep Neural Networks を新しいタスクに効率的に適応する tAsk-auGmented actIve meta-LEarning (AGILE) 手法を提案する。
AGILEはメタ学習アルゴリズムと,初期適応モデルを生成するための新しいタスク拡張手法を組み合わせる。
提案するタスク強化メタラーニングフレームワークは,1段階の段階を経て,新たな細胞タイプを分類することができることを示す。
論文 参考訳(メタデータ) (2020-07-09T18:03:12Z) - Incremental Meta-Learning via Indirect Discriminant Alignment [118.61152684795178]
メタ学習のメタ学習段階において,段階的な学習の概念を発達させる。
我々のアプローチは、完全なメタトレーニングセットでモデルをトレーニングするのと比べて、テスト時に好適に機能する。
論文 参考訳(メタデータ) (2020-02-11T01:39:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。