論文の概要: Meta-Learning with Task-Adaptive Loss Function for Few-Shot Learning
- arxiv url: http://arxiv.org/abs/2110.03909v1
- Date: Fri, 8 Oct 2021 06:07:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-11 14:13:29.416926
- Title: Meta-Learning with Task-Adaptive Loss Function for Few-Shot Learning
- Title(参考訳): タスク適応型損失関数を持つメタラーニングによるFew-Shot学習
- Authors: Sungyong Baik, Janghoon Choi, Heewon Kim, Dohee Cho, Jaesik Min,
Kyoung Mu Lee
- Abstract要約: 数ショットの学習シナリオでは、新しい目に見えない例を一般化し、うまく実行するのが課題だ。
各タスクに適応する損失関数を備えた新しいメタ学習フレームワークを導入する。
提案フレームワークはMeta-Learning with Task-Adaptive Loss Function (MeTAL) と名付けられ,様々な領域における有効性と柔軟性を示す。
- 参考スコア(独自算出の注目度): 50.59295648948287
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In few-shot learning scenarios, the challenge is to generalize and perform
well on new unseen examples when only very few labeled examples are available
for each task. Model-agnostic meta-learning (MAML) has gained the popularity as
one of the representative few-shot learning methods for its flexibility and
applicability to diverse problems. However, MAML and its variants often resort
to a simple loss function without any auxiliary loss function or regularization
terms that can help achieve better generalization. The problem lies in that
each application and task may require different auxiliary loss function,
especially when tasks are diverse and distinct. Instead of attempting to
hand-design an auxiliary loss function for each application and task, we
introduce a new meta-learning framework with a loss function that adapts to
each task. Our proposed framework, named Meta-Learning with Task-Adaptive Loss
Function (MeTAL), demonstrates the effectiveness and the flexibility across
various domains, such as few-shot classification and few-shot regression.
- Abstract(参考訳): 少数の学習シナリオにおいて、課題は、各タスクにラベル付きサンプルがほとんどない場合に、新しい未知の例を一般化し、うまく実行することです。
モデルに依存しないメタラーニング(MAML)は、様々な問題に対する柔軟性と適用性において代表的な数発の学習方法の1つである。
しかしながら、mamlとその変種は、補助的損失関数や正規化項を伴わない単純な損失関数に頼り、より良い一般化を達成するのに役立つ。
問題は、各アプリケーションとタスクが異なる補助的損失関数を必要とすることであり、特にタスクが多様で異なる場合である。
各アプリケーションとタスクに対して補助的損失関数を手作業で設計する代わりに、各タスクに適応する損失関数を備えた新しいメタ学習フレームワークを導入する。
提案するMeta-Learning with Task-Adaptive Loss Function (MeTAL) は,少数ショット分類や少数ショット回帰など,さまざまな領域における有効性と柔軟性を示すフレームワークである。
関連論文リスト
- Perturbing the Gradient for Alleviating Meta Overfitting [6.6157730528755065]
本稿では,数ショットの学習環境におけるメタオーバーフィッティングに対処するソリューションを多数提案する。
提案手法は,非相互排他的タスク設定における学習における最先端のベースラインと比較して,一般化性能の向上を実証する。
論文 参考訳(メタデータ) (2024-05-20T18:04:59Z) - Distribution Matching for Multi-Task Learning of Classification Tasks: a
Large-Scale Study on Faces & Beyond [62.406687088097605]
マルチタスク学習(MTL)は、複数の関連するタスクを共同で学習し、共有表現空間から恩恵を受けるフレームワークである。
MTLは、ほとんど重複しない、あるいは重複しないアノテーションで分類タスクで成功することを示す。
本稿では,分散マッチングによるタスク間の知識交換を可能にする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-02T14:18:11Z) - Task-Distributionally Robust Data-Free Meta-Learning [99.56612787882334]
Data-Free Meta-Learning (DFML)は、複数の事前学習モデルを活用することで、独自のトレーニングデータを必要とせずに、新しいタスクを効率的に学習することを目的としている。
TDS(Task-Distribution Shift)とTDC(Task-Distribution Corruption)の2つの大きな課題を初めて明らかにした。
論文 参考訳(メタデータ) (2023-11-23T15:46:54Z) - Towards Task Sampler Learning for Meta-Learning [37.02030832662183]
メタラーニングは、限られたデータから行われる多様なトレーニングタスクで一般的な知識を学び、それを新しいタスクに転送することを目的としている。
タスク多様性の増大はメタラーニングモデルの一般化能力を高めると一般的に信じられている。
本稿では、経験的および理論的分析を通して、この見解に挑戦する。
論文 参考訳(メタデータ) (2023-07-18T01:53:18Z) - MetaModulation: Learning Variational Feature Hierarchies for Few-Shot
Learning with Fewer Tasks [63.016244188951696]
本稿では,タスクを減らした少数ショット学習手法を提案する。
メタトレーニングタスクを増やすために、さまざまなバッチレベルでパラメータを変更します。
また,変分法を取り入れた学習的変分特徴階層も導入する。
論文 参考訳(メタデータ) (2023-05-17T15:47:47Z) - MELTR: Meta Loss Transformer for Learning to Fine-tune Video Foundation
Models [10.10825306582544]
本稿では,様々な損失関数を自動かつ非線形に組み合わせて,補助学習による目標タスクの学習を支援するプラグインモジュールであるMeta Loss TRansformerを提案する。
評価のために、我々のフレームワークを様々なビデオ基盤モデル(UniVL、Violet、All-in-one)に適用し、4つのダウンストリームタスクにおいて大きなパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2023-03-23T03:06:44Z) - Conflict-Averse Gradient Descent for Multi-task Learning [56.379937772617]
マルチタスクモデルを最適化する際の大きな課題は、矛盾する勾配である。
本稿では、平均損失関数を最小化する衝突-逆勾配降下(CAGrad)を導入する。
CAGradは目標を自動的にバランスし、平均損失よりも最小限に確実に収束する。
論文 参考訳(メタデータ) (2021-10-26T22:03:51Z) - ST-MAML: A Stochastic-Task based Method for Task-Heterogeneous
Meta-Learning [12.215288736524268]
本稿では,モデルに依存しないメタラーニング(MAML)を複数のタスク分布から学習するための新しい手法ST-MAMLを提案する。
そこで本研究では,ST-MAMLが2つの画像分類タスク,1つの曲線評価ベンチマーク,1つの画像補完問題,および実世界の温度予測アプリケーションにおいて,最先端の映像分類タスクに適合または優れることを示す。
論文 参考訳(メタデータ) (2021-09-27T18:54:50Z) - Meta-Learning with Fewer Tasks through Task Interpolation [67.03769747726666]
現在のメタ学習アルゴリズムは多数のメタトレーニングタスクを必要としており、実際のシナリオではアクセスできない可能性がある。
タスクグラデーションを用いたメタラーニング(MLTI)により,タスクのペアをランダムにサンプリングし,対応する特徴やラベルを補間することにより,タスクを効果的に生成する。
実証的な実験では,提案する汎用MLTIフレームワークが代表的なメタ学習アルゴリズムと互換性があり,他の最先端戦略を一貫して上回っていることがわかった。
論文 参考訳(メタデータ) (2021-06-04T20:15:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。