論文の概要: Unraveling Meta-Learning: Understanding Feature Representations for
Few-Shot Tasks
- arxiv url: http://arxiv.org/abs/2002.06753v3
- Date: Wed, 1 Jul 2020 13:59:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-31 11:50:36.232351
- Title: Unraveling Meta-Learning: Understanding Feature Representations for
Few-Shot Tasks
- Title(参考訳): メタラーニングの解き放つ:少数のタスクの特徴表現を理解する
- Authors: Micah Goldblum, Steven Reich, Liam Fowl, Renkun Ni, Valeriia
Cherepanova, Tom Goldstein
- Abstract要約: メタラーニングの基礎となる力学と、メタラーニングを用いて訓練されたモデルと古典的に訓練されたモデルの違いをよりよく理解する。
数ショット分類のための標準訓練ルーチンの性能を高める正則化器を開発した。
- 参考スコア(独自算出の注目度): 55.66438591090072
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Meta-learning algorithms produce feature extractors which achieve
state-of-the-art performance on few-shot classification. While the literature
is rich with meta-learning methods, little is known about why the resulting
feature extractors perform so well. We develop a better understanding of the
underlying mechanics of meta-learning and the difference between models trained
using meta-learning and models which are trained classically. In doing so, we
introduce and verify several hypotheses for why meta-learned models perform
better. Furthermore, we develop a regularizer which boosts the performance of
standard training routines for few-shot classification. In many cases, our
routine outperforms meta-learning while simultaneously running an order of
magnitude faster.
- Abstract(参考訳): メタ学習アルゴリズムは、数ショットの分類で最先端のパフォーマンスを達成する特徴抽出器を生成する。
文学はメタラーニング手法に富んでいるが、なぜ特徴抽出器がこれほどうまく機能するのかは分かっていない。
メタラーニングの基礎となる力学と、メタラーニングを用いて訓練されたモデルと古典的に訓練されたモデルとの差異をよりよく理解する。
そこで我々は,メタ学習モデルの性能が向上するいくつかの仮説を紹介し,検証する。
さらに,数発の分類のための標準訓練ルーチンの性能を高めるレギュラーライザを開発した。
多くの場合、我々のルーチンはメタラーニングより優れ、同時に桁違いに高速に実行される。
関連論文リスト
- Meta-Learning with Self-Improving Momentum Target [72.98879709228981]
メタラーナーの性能を向上させるために,SiMT(Self-improving Momentum Target)を提案する。
SiMTはメタラーナーの時間アンサンブルから適応してターゲットモデルを生成する。
我々は、SiMTが幅広いメタ学習手法と組み合わせることで、大きなパフォーマンス向上をもたらすことを示す。
論文 参考訳(メタデータ) (2022-10-11T06:45:15Z) - Learning an Explicit Hyperparameter Prediction Function Conditioned on
Tasks [62.63852372239708]
メタ学習は、観察されたタスクから機械学習の学習方法論を学び、新しいクエリタスクに一般化することを目的としている。
我々は、これらの学習手法を、全てのトレーニングタスクで共有される明示的なハイパーパラメータ予測関数の学習として解釈する。
このような設定は、メタ学習方法論が多様なクエリタスクに柔軟に適合できることを保証する。
論文 参考訳(メタデータ) (2021-07-06T04:05:08Z) - Trainable Class Prototypes for Few-Shot Learning [5.481942307939029]
本稿では,メタトレーニングとタスクトレーニングの枠組みにおいて,距離測定のためのトレーニング可能なプロトタイプを提案する。
また, エピソードなメタトレーニングがもたらした欠点を避けるために, 自己教師型学習に基づく非エピソードなメタトレーニングを採用する。
本手法は,標準的な数ショットの視覚的分類データセット上で,多数の確立された数ショットタスクにおいて,最先端の性能を実現する。
論文 参考訳(メタデータ) (2021-06-21T04:19:56Z) - Rethinking Few-Shot Image Classification: a Good Embedding Is All You
Need? [72.00712736992618]
メタトレーニングセット上で教師付きあるいは自己教師型表現を学習する単純なベースラインが、最先端の数ショット学習方法より優れていることを示す。
追加の増量は自己蒸留によって達成できる。
我々は,この発見が,画像分類ベンチマークとメタ学習アルゴリズムの役割を再考する動機となっていると考えている。
論文 参考訳(メタデータ) (2020-03-25T17:58:42Z) - Meta-Baseline: Exploring Simple Meta-Learning for Few-Shot Learning [79.25478727351604]
評価基準に基づいて,分類済みモデル全体に対するメタラーニング(メタラーニング)を提案する。
我々は,この単純な手法が標準ベンチマークにおける最先端手法との競合性能を達成するのを観察する。
論文 参考訳(メタデータ) (2020-03-09T20:06:36Z) - Towards explainable meta-learning [5.802346990263708]
メタラーニングは、さまざまな機械学習アルゴリズムが幅広い予測タスクでどのように機能するかを発見することを目的としている。
State of the Artアプローチは、最高のメタモデルを探すことに重点を置いているが、これらの異なる側面がパフォーマンスにどのように貢献するかは説明していない。
ブラックボックスサロゲートモデルから知識を抽出するために,eXplainable Artificial Intelligence (XAI) のために開発された手法を提案する。
論文 参考訳(メタデータ) (2020-02-11T09:42:29Z) - Incremental Meta-Learning via Indirect Discriminant Alignment [118.61152684795178]
メタ学習のメタ学習段階において,段階的な学習の概念を発達させる。
我々のアプローチは、完全なメタトレーニングセットでモデルをトレーニングするのと比べて、テスト時に好適に機能する。
論文 参考訳(メタデータ) (2020-02-11T01:39:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。