論文の概要: Fast Few-Shot Classification by Few-Iteration Meta-Learning
- arxiv url: http://arxiv.org/abs/2010.00511v3
- Date: Sun, 20 Mar 2022 19:22:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 08:18:58.712847
- Title: Fast Few-Shot Classification by Few-Iteration Meta-Learning
- Title(参考訳): マイトレーティングメタラーニングによる高速マイトショット分類
- Authors: Ardhendu Shekhar Tripathi, Martin Danelljan, Luc Van Gool, Radu
Timofte
- Abstract要約: 数ショット分類のための高速な最適化に基づくメタラーニング手法を提案する。
我々の戦略はメタ学習において学習すべき基礎学習者の目的の重要な側面を可能にする。
我々は、我々のアプローチの速度と効果を実証し、総合的な実験分析を行う。
- 参考スコア(独自算出の注目度): 173.32497326674775
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous agents interacting with the real world need to learn new concepts
efficiently and reliably. This requires learning in a low-data regime, which is
a highly challenging problem. We address this task by introducing a fast
optimization-based meta-learning method for few-shot classification. It
consists of an embedding network, providing a general representation of the
image, and a base learner module. The latter learns a linear classifier during
the inference through an unrolled optimization procedure. We design an inner
learning objective composed of (i) a robust classification loss on the support
set and (ii) an entropy loss, allowing transductive learning from unlabeled
query samples. By employing an efficient initialization module and a Steepest
Descent based optimization algorithm, our base learner predicts a powerful
classifier within only a few iterations. Further, our strategy enables
important aspects of the base learner objective to be learned during
meta-training. To the best of our knowledge, this work is the first to
integrate both induction and transduction into the base learner in an
optimization-based meta-learning framework. We perform a comprehensive
experimental analysis, demonstrating the speed and effectiveness of our
approach on four few-shot classification datasets. The Code is available at
\href{https://github.com/4rdhendu/FIML}{\textcolor{blue}{https://github.com/4rdhendu/FIML}}.
- Abstract(参考訳): 現実世界と対話する自律エージェントは、効率的に確実に新しい概念を学ぶ必要がある。
これは、非常に困難な問題である低データ体制での学習を必要とする。
この課題に対して,数ショット分類のための高速な最適化に基づくメタ学習手法を提案する。
画像の一般的な表現を提供する埋め込みネットワークと、ベース学習モジュールで構成されている。
後者は、未ロールの最適化手順を通じて推論中に線形分類器を学習する。
我々は内的学習目標を設計する
(i)サポートセットのロバストな分類損失と
(ii)エントロピーの損失により、ラベルなしクエリサンプルからのトランスダクティブ学習が可能となる。
効率的な初期化モジュールとSteepest Descentに基づく最適化アルゴリズムを用いることで、ベース学習者は数イテレーションで強力な分類器を予測できる。
さらに,本戦略は,学習目標の重要な側面をメタトレーニング中に学習することを可能にする。
私たちの知る限りでは、この研究は最適化ベースのメタ学習フレームワークにおいて、インダクションとトランスダクションの両方をベースラーナに統合した最初のものです。
我々は,4つの数発の分類データセットに対するアプローチの速度と有効性を示す総合的な実験分析を行った。
コードは \href{https://github.com/4rdhendu/FIML}{\textcolor{blue}{https://github.com/4rdhendu/FIML}} で公開されている。
関連論文リスト
- Achieving More with Less: A Tensor-Optimization-Powered Ensemble Method [53.170053108447455]
アンサンブル学習(英: Ensemble learning)は、弱い学習者を利用して強力な学習者を生み出す方法である。
我々は、マージンの概念を活かした滑らかで凸な目的関数を設計し、強力な学習者がより差別的になるようにした。
そして、我々のアルゴリズムを、多数のデータセットの10倍の大きさのランダムな森林や他の古典的な手法と比較する。
論文 参考訳(メタデータ) (2024-08-06T03:42:38Z) - Learning to Learn with Indispensable Connections [6.040904021861969]
本稿では,メタ-LTHと呼ばれるメタ-LTHと呼ばれるメタ-ラーニング手法を提案する。
本手法は,オムニグロットデータセットの分類精度を約2%向上させる。
論文 参考訳(メタデータ) (2023-04-06T04:53:13Z) - Learning Large-scale Neural Fields via Context Pruned Meta-Learning [60.93679437452872]
本稿では,大規模ニューラルネットワーク学習のための最適化に基づくメタラーニング手法を提案する。
メタテスト時間における勾配再スケーリングは、非常に高品質なニューラルネットワークの学習を可能にすることを示す。
我々のフレームワークは、モデルに依存しない、直感的で、実装が容易であり、幅広い信号に対する大幅な再構成改善を示す。
論文 参考訳(メタデータ) (2023-02-01T17:32:16Z) - Partial Is Better Than All: Revisiting Fine-tuning Strategy for Few-shot
Learning [76.98364915566292]
一般的なプラクティスは、まずベースセット上でモデルをトレーニングし、その後、微調整によって新しいクラスに移行することである。
本稿では,基本モデル内の特定の層を凍結あるいは微調整することにより,部分的知識の伝達を提案する。
提案手法の有効性を実証するために, CUB と mini-ImageNet の広範な実験を行った。
論文 参考訳(メタデータ) (2021-02-08T03:27:05Z) - Generalized Reinforcement Meta Learning for Few-Shot Optimization [3.7675996866306845]
本稿では, 汎用的かつ柔軟な強化学習(RL)に基づくメタラーニングフレームワークを提案する。
我々のフレームワークは簡単にネットワークアーキテクチャ検索に拡張できる。
論文 参考訳(メタデータ) (2020-05-04T03:21:05Z) - Rethinking Few-Shot Image Classification: a Good Embedding Is All You
Need? [72.00712736992618]
メタトレーニングセット上で教師付きあるいは自己教師型表現を学習する単純なベースラインが、最先端の数ショット学習方法より優れていることを示す。
追加の増量は自己蒸留によって達成できる。
我々は,この発見が,画像分類ベンチマークとメタ学習アルゴリズムの役割を再考する動機となっていると考えている。
論文 参考訳(メタデータ) (2020-03-25T17:58:42Z) - Meta-Baseline: Exploring Simple Meta-Learning for Few-Shot Learning [79.25478727351604]
評価基準に基づいて,分類済みモデル全体に対するメタラーニング(メタラーニング)を提案する。
我々は,この単純な手法が標準ベンチマークにおける最先端手法との競合性能を達成するのを観察する。
論文 参考訳(メタデータ) (2020-03-09T20:06:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。