論文の概要: Meta-Learning across Meta-Tasks for Few-Shot Learning
- arxiv url: http://arxiv.org/abs/2002.04274v4
- Date: Sat, 26 Sep 2020 05:02:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 01:28:26.159474
- Title: Meta-Learning across Meta-Tasks for Few-Shot Learning
- Title(参考訳): ファウショット学習のためのメタタスク間のメタラーニング
- Authors: Nanyi Fei, Zhiwu Lu, Yizhao Gao, Jia Tian, Tao Xiang and Ji-Rong Wen
- Abstract要約: 我々は,メタ・ラーニングを支援するために,メタ・タスク間の関係を活用すべきであり,これらのタスクを戦略的にサンプリングするべきだと論じている。
2種類のメタタスクペアで定義された関係を考察し、それらを活用するための異なる戦略を提案する。
- 参考スコア(独自算出の注目度): 107.44950540552765
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing meta-learning based few-shot learning (FSL) methods typically adopt
an episodic training strategy whereby each episode contains a meta-task. Across
episodes, these tasks are sampled randomly and their relationships are ignored.
In this paper, we argue that the inter-meta-task relationships should be
exploited and those tasks are sampled strategically to assist in meta-learning.
Specifically, we consider the relationships defined over two types of meta-task
pairs and propose different strategies to exploit them. (1) Two meta-tasks with
disjoint sets of classes: this pair is interesting because it is reminiscent of
the relationship between the source seen classes and target unseen classes,
featured with domain gap caused by class differences. A novel learning
objective termed meta-domain adaptation (MDA) is proposed to make the
meta-learned model more robust to the domain gap. (2) Two meta-tasks with
identical sets of classes: this pair is useful because it can be employed to
learn models that are robust against poorly sampled few-shots. To that end, a
novel meta-knowledge distillation (MKD) objective is formulated. There are some
mistakes in the experiments. We thus choose to withdraw this paper.
- Abstract(参考訳): 既存のメタラーニングベースの少ショットラーニング(FSL)手法は、通常、各エピソードがメタタスクを含むエピソードトレーニング戦略を採用する。
エピソード全体でこれらのタスクはランダムにサンプリングされ、それらの関係は無視される。
本稿では,メタ学習を支援するために,メタタスク間の関係を活用すべきであり,これらのタスクを戦略的にサンプリングする。
具体的には,2種類のメタタスクペアで定義された関係を考察し,それらを活用するための異なる戦略を提案する。
1) クラスが結合しない2つのメタタスク: このペアは, クラスの違いによって生じるドメインギャップを特徴とする, 対象クラスと対象クラスとの関係を思い出させるため, 興味深い。
メタドメイン適応(メタドメイン適応、meta-domain adaptation, mda)と呼ばれる新しい学習目的が提案されている。
2) 同一のクラスセットを持つ2つのメタタスク: このペアは、サンプルの少ない少数ショットに対して堅牢なモデルを学ぶのに有用である。
これにより、新規メタ知識蒸留(mkd)目的が定式化される。
実験にはいくつかの誤りがある。
私たちはこの論文を取り下げることにした。
関連論文リスト
- MetaICL: Learning to Learn In Context [87.23056864536613]
そこで我々は,メタICLというメタトレーニングフレームワークを紹介した。このフレームワークでは,事前学習された言語モデルが,大量のトレーニングタスクに対してコンテキスト内学習を行うように調整されている。
その結果,MetaICLは,目標タスクトレーニングデータに対して完全に微調整されたモデルの性能にアプローチ(時には打ち負かす)し,ほぼ8倍のパラメータを持つモデルよりも優れた性能を示すことがわかった。
論文 参考訳(メタデータ) (2021-10-29T17:42:08Z) - Meta-FDMixup: Cross-Domain Few-Shot Learning Guided by Labeled Target
Data [95.47859525676246]
最近の研究では、ソースドメインで訓練された既存の数発の学習手法が、ドメインギャップが観測されると、新しいターゲットドメインに一般化できないことが判明している。
本稿では,クロスドメインFew-Shot Learningにおけるラベル付き目標データが,学習プロセスを支援するために利用されていないことに気付いた。
論文 参考訳(メタデータ) (2021-07-26T06:15:45Z) - Learning to Bridge Metric Spaces: Few-shot Joint Learning of Intent
Detection and Slot Filling [29.218780709974244]
そこで本研究では,データリッチドメイン上で意図とスロットの計量空間をブリッジする学習手法を提案する。
われわれのモデルは、1ショットと5ショット設定で強いベースラインをはるかに上回っている。
論文 参考訳(メタデータ) (2021-05-25T15:07:11Z) - Meta-Regularization by Enforcing Mutual-Exclusiveness [0.8057006406834467]
本稿では,メタ学習時の情報フローをモデル設計者が制御できるように,メタ学習モデルの正規化手法を提案する。
提案した正規化関数は,Omniglotデータセット上で$sim$$36%の精度向上を示す。
論文 参考訳(メタデータ) (2021-01-24T22:57:19Z) - Yet Meta Learning Can Adapt Fast, It Can Also Break Easily [53.65787902272109]
数発の分類問題の下で,メタ学習に対する敵対的攻撃について検討した。
様々な環境下でのメタ学習に対する最初の攻撃アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-09-02T15:03:14Z) - Learning to Learn to Disambiguate: Meta-Learning for Few-Shot Word Sense
Disambiguation [26.296412053816233]
単語感覚の曖昧さを解消するメタラーニングフレームワークを提案する。
ゴールは、少数のラベル付きインスタンスから目に見えない単語をあいまいにすることを学ぶことである。
このシナリオにいくつかの一般的なメタ学習アプローチを拡張し、その強みと弱点を分析します。
論文 参考訳(メタデータ) (2020-04-29T17:33:31Z) - Meta-Baseline: Exploring Simple Meta-Learning for Few-Shot Learning [79.25478727351604]
評価基準に基づいて,分類済みモデル全体に対するメタラーニング(メタラーニング)を提案する。
我々は,この単純な手法が標準ベンチマークにおける最先端手法との競合性能を達成するのを観察する。
論文 参考訳(メタデータ) (2020-03-09T20:06:36Z) - Incremental Meta-Learning via Indirect Discriminant Alignment [118.61152684795178]
メタ学習のメタ学習段階において,段階的な学習の概念を発達させる。
我々のアプローチは、完全なメタトレーニングセットでモデルをトレーニングするのと比べて、テスト時に好適に機能する。
論文 参考訳(メタデータ) (2020-02-11T01:39:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。