論文の概要: A Nested Bi-level Optimization Framework for Robust Few Shot Learning
- arxiv url: http://arxiv.org/abs/2011.06782v2
- Date: Wed, 1 Dec 2021 17:10:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 00:19:41.891407
- Title: A Nested Bi-level Optimization Framework for Robust Few Shot Learning
- Title(参考訳): ロバストショット学習のためのネステッド二段階最適化フレームワーク
- Authors: Krishnateja Killamsetty, Changbin Li, Chen Zhao, Rishabh Iyer, Feng
Chen
- Abstract要約: NestedMAMLはトレーニングタスクやインスタンスに重みを割り当てることを学ぶ。
合成および実世界のデータセットの実験では、NestedMAMLは「不要な」タスクやインスタンスの効果を効率的に緩和している。
- 参考スコア(独自算出の注目度): 10.147225934340877
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Model-Agnostic Meta-Learning (MAML), a popular gradient-based meta-learning
framework, assumes that the contribution of each task or instance to the
meta-learner is equal. Hence, it fails to address the domain shift between base
and novel classes in few-shot learning. In this work, we propose a novel robust
meta-learning algorithm, NestedMAML, which learns to assign weights to training
tasks or instances. We consider weights as hyper-parameters and iteratively
optimize them using a small set of validation tasks set in a nested bi-level
optimization approach (in contrast to the standard bi-level optimization in
MAML). We then apply NestedMAML in the meta-training stage, which involves (1)
several tasks sampled from a distribution different from the meta-test task
distribution, or (2) some data samples with noisy labels. Extensive experiments
on synthetic and real-world datasets demonstrate that NestedMAML efficiently
mitigates the effects of "unwanted" tasks or instances, leading to significant
improvement over the state-of-the-art robust meta-learning methods.
- Abstract(参考訳): 一般的な勾配ベースのメタ学習フレームワークであるモデル非依存メタ学習(maml)は、各タスクやインスタンスのメタ学習への貢献が等しいと仮定している。
したがって、少人数学習では、基本クラスと新しいクラス間のドメインシフトに対処できない。
本研究では,トレーニングタスクやインスタンスに重みを割り当てることを学ぶ,新しい頑健なメタ学習アルゴリズムNestedMAMLを提案する。
我々は重みをハイパーパラメータとみなし、(MAMLの標準的な二段階最適化とは対照的に)ネストされた二段階最適化アプローチで設定された小さな検証タスクを用いて繰り返し最適化する。
次に,NestedMAMLをメタトレーニング段階に適用し,(1)メタテストのタスク分布とは異なる分布からサンプリングされた複数のタスク,(2)ノイズのあるラベルを持つデータサンプルに適用する。
合成および実世界のデータセットに関する大規模な実験は、NestedMAMLが"不要"なタスクやインスタンスの影響を効果的に緩和し、最先端の堅牢なメタ学習方法よりも大幅に改善したことを示している。
関連論文リスト
- Meta-Learning with Heterogeneous Tasks [42.695853959923625]
HeTRoM(Heterogeneous Tasks Robust Meta-learning)
双方向最適化に基づく効率的な反復最適化アルゴリズム
その結果,提案手法の柔軟性が示され,多様なタスク設定に適応できることがわかった。
論文 参考訳(メタデータ) (2024-10-24T16:32:23Z) - MAML-en-LLM: Model Agnostic Meta-Training of LLMs for Improved In-Context Learning [43.512739869120125]
大規模言語モデル(LLM)のメタトレーニング手法であるMAML-en-LLMを提案する。
MAML-en-LLMは、解離したタスクでうまく機能するだけでなく、目に見えないタスクに適応する真の一般化可能なパラメータを学習することができる。
我々は、MAML-en-LLMが、目に見えないドメインと見えないドメインのトレーニングデータが少ない設定において、ベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-05-19T04:49:42Z) - Model-Agnostic Multitask Fine-tuning for Few-shot Vision-Language
Transfer Learning [59.38343286807997]
未知タスクの視覚言語モデルのためのモデル非依存型マルチタスクファインチューニング(MAMF)を提案する。
モデルに依存しないメタラーニング(MAML)と比較して、MAMFは二段階最適化を捨て、一階勾配のみを使用する。
MAMFは5つのベンチマークデータセット上で、数ショットの転送学習において古典的な微調整法よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-03-09T17:26:53Z) - ST-MAML: A Stochastic-Task based Method for Task-Heterogeneous
Meta-Learning [12.215288736524268]
本稿では,モデルに依存しないメタラーニング(MAML)を複数のタスク分布から学習するための新しい手法ST-MAMLを提案する。
そこで本研究では,ST-MAMLが2つの画像分類タスク,1つの曲線評価ベンチマーク,1つの画像補完問題,および実世界の温度予測アプリケーションにおいて,最先端の映像分類タスクに適合または優れることを示す。
論文 参考訳(メタデータ) (2021-09-27T18:54:50Z) - Memory-Based Optimization Methods for Model-Agnostic Meta-Learning and
Personalized Federated Learning [56.17603785248675]
モデルに依存しないメタラーニング (MAML) が人気のある研究分野となっている。
既存のMAMLアルゴリズムは、イテレーション毎にメタモデルを更新するためにいくつかのタスクとデータポイントをサンプリングすることで、エピソードのアイデアに依存している。
本稿では,MAMLのメモリベースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-09T08:47:58Z) - Meta-Learning with Fewer Tasks through Task Interpolation [67.03769747726666]
現在のメタ学習アルゴリズムは多数のメタトレーニングタスクを必要としており、実際のシナリオではアクセスできない可能性がある。
タスクグラデーションを用いたメタラーニング(MLTI)により,タスクのペアをランダムにサンプリングし,対応する特徴やラベルを補間することにより,タスクを効果的に生成する。
実証的な実験では,提案する汎用MLTIフレームワークが代表的なメタ学習アルゴリズムと互換性があり,他の最先端戦略を一貫して上回っていることがわかった。
論文 参考訳(メタデータ) (2021-06-04T20:15:34Z) - Energy-Efficient and Federated Meta-Learning via Projected Stochastic
Gradient Ascent [79.58680275615752]
エネルギー効率のよいメタラーニングフレームワークを提案する。
各タスクは別々のエージェントによって所有されていると仮定するため、メタモデルをトレーニングするために限られたタスクが使用される。
論文 参考訳(メタデータ) (2021-05-31T08:15:44Z) - On Fast Adversarial Robustness Adaptation in Model-Agnostic
Meta-Learning [100.14809391594109]
モデルに依存しないメタラーニング(MAML)は、数発の学習において最も成功したメタラーニング手法の1つである。
メタモデルの一般化力にもかかわらず、マルチショット学習においてMDLがいかに敵対的堅牢性を維持することができるかは明らかではない。
本稿では,ラベルなしデータ拡張,高速な攻撃生成,計算量軽微な微調整を可能にする,汎用的かつ最適化が容易なロバストネス正規化メタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-20T22:03:04Z) - BI-MAML: Balanced Incremental Approach for Meta Learning [9.245355087256314]
本稿では,複数のタスクを学習するための新しいバランス付きインクリメンタルモデルAgnostic Meta Learningシステム(BI-MAML)を提案する。
本手法では,従来のタスクを忘れることなく,新たなタスクにモデルを漸進的に適応させるメタ更新ルールを実装している。
本システムでは,数ショットでメタ更新を行い,その達成に成功している。
論文 参考訳(メタデータ) (2020-06-12T18:28:48Z) - Structured Prediction for Conditional Meta-Learning [44.30857707980074]
構造化予測を用いた条件付きメタラーニングの新しい視点を提案する。
タスク適応型構造化メタラーニング(TASML: Task-Adaptive Structured Meta-learning)は,タスク固有目的関数を生成する基本的フレームワークである。
実験により,TASMLは既存のメタラーニングモデルの性能を向上し,ベンチマークデータセットの最先端性を上回った。
論文 参考訳(メタデータ) (2020-02-20T15:24:15Z) - Incremental Meta-Learning via Indirect Discriminant Alignment [118.61152684795178]
メタ学習のメタ学習段階において,段階的な学習の概念を発達させる。
我々のアプローチは、完全なメタトレーニングセットでモデルをトレーニングするのと比べて、テスト時に好適に機能する。
論文 参考訳(メタデータ) (2020-02-11T01:39:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。