論文の概要: Layer-Wise Adaptive Updating for Few-Shot Image Classification
- arxiv url: http://arxiv.org/abs/2007.08129v1
- Date: Thu, 16 Jul 2020 06:02:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 21:57:20.162778
- Title: Layer-Wise Adaptive Updating for Few-Shot Image Classification
- Title(参考訳): Few-Shot画像分類のための層幅適応更新
- Authors: Yunxiao Qin, Weiguo Zhang, Zezheng Wang, Chenxu Zhao, Jingping Shi
- Abstract要約: Few-shot Image Classification (FSIC) は、これらのカテゴリの少数の画像から学習することで、新しいカテゴリを認識するモデルを必要とする。
FSICのための新しいメタラーニングに基づくレイヤワイド・アダプティブ・アップデート(LWAU)手法を提案する。
- 参考スコア(独自算出の注目度): 18.422484448610735
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot image classification (FSIC), which requires a model to recognize new
categories via learning from few images of these categories, has attracted lots
of attention. Recently, meta-learning based methods have been shown as a
promising direction for FSIC. Commonly, they train a meta-learner
(meta-learning model) to learn easy fine-tuning weight, and when solving an
FSIC task, the meta-learner efficiently fine-tunes itself to a task-specific
model by updating itself on few images of the task. In this paper, we propose a
novel meta-learning based layer-wise adaptive updating (LWAU) method for FSIC.
LWAU is inspired by an interesting finding that compared with common deep
models, the meta-learner pays much more attention to update its top layer when
learning from few images. According to this finding, we assume that the
meta-learner may greatly prefer updating its top layer to updating its bottom
layers for better FSIC performance. Therefore, in LWAU, the meta-learner is
trained to learn not only the easy fine-tuning model but also its favorite
layer-wise adaptive updating rule to improve its learning efficiency. Extensive
experiments show that with the layer-wise adaptive updating rule, the proposed
LWAU: 1) outperforms existing few-shot classification methods with a clear
margin; 2) learns from few images more efficiently by at least 5 times than
existing meta-learners when solving FSIC.
- Abstract(参考訳): 少数のカテゴリの画像から学習することで新たなカテゴリを認識するモデルが必要となる、少数ショット画像分類(fsic)は、多くの注目を集めている。
近年,メタラーニングに基づく手法がFSICの有望な方向性として示されている。
一般的に、簡単な微調整のウェイトを学ぶためにメタラーナー(メタラーナーモデル)を訓練し、FSICタスクを解くとき、メタラーナーはタスクの少ない画像に更新することで、タスク固有のモデルに効率的に微調整する。
本稿では,fsicのためのメタラーニングに基づく階層型適応更新(lwau)手法を提案する。
lwauは、一般的な深層モデルと比較して、少数の画像から学習する際にトップ層を更新することに多くの注意を払っている興味深い発見にインスパイアされている。
この発見によると、メタリアナーは、fsicパフォーマンスを改善するために、トップ層をアップデートして、ボトム層をアップデートすることを好むかもしれない。
したがって、lwauでは、メタリーナーは簡単な微調整モデルだけでなく、学習効率を向上させるために好みの層順適応更新規則を学ぶように訓練される。
広汎な実験により、レイヤワイド適応更新規則により、提案されたLWAUは次のようになる。
1) 既存の少数ショット分類法を明確なマージンで上回る。
2)FSICを解く際に既存のメタラーナーの5倍の効率で画像から学習する。
関連論文リスト
- MoBYv2AL: Self-supervised Active Learning for Image Classification [57.4372176671293]
画像分類のための自己教師型アクティブラーニングフレームワークであるMoBYv2ALを提案する。
私たちの貢献は、最も成功した自己教師付き学習アルゴリズムであるMoBYをALパイプラインに持ち上げることです。
近年のAL法と比較すると,最先端の結果が得られている。
論文 参考訳(メタデータ) (2023-01-04T10:52:02Z) - Accelerating Gradient-based Meta Learner [2.1349209400003932]
我々は,MAML (Model Agnostic Meta Learning) などのメタ学習アルゴリズムを高速化する様々なアクセラレーション手法を提案する。
本稿では,メタ学習プロセスの高速化だけでなく,モデルの精度向上にも寄与する,クラスタ内でのトレーニングタスクの新たな方法を提案する。
論文 参考訳(メタデータ) (2021-10-27T14:27:36Z) - Memory Efficient Meta-Learning with Large Images [62.70515410249566]
数ショットの分類に対するメタ学習アプローチは、新しいタスクを学ぶために、ほんの数ステップの最適化やシングルフォワードパスを必要とするテスト時に計算的に効率的である。
この制限は、最大1000のイメージを含むタスクの全体サポートセットが、最適化ステップを取る前に処理されなければならないために生じる。
本稿では,1つのGPU上の大容量画像からなる大規模タスクのメタトレーニングを可能にする,汎用的でメモリ効率の良いエピソード・トレーニング手法であるLITEを提案する。
論文 参考訳(メタデータ) (2021-07-02T14:37:13Z) - Few-Shot Learning for Image Classification of Common Flora [0.0]
MAML(Model-Agnostic Meta Learning)を用いた画像分類のためのメタラーニング分野の最先端の研究と、さまざまな最先端のトランスファーラーニングウェイトとアーキテクチャをテストした結果を紹介します。
その結果、データセットが十分に大きい場合、両方のプラクティスが十分なパフォーマンスを提供しますが、十分なパフォーマンスを維持するためにデータスパーシャビリティが導入されると、どちらも苦労しています。
論文 参考訳(メタデータ) (2021-05-07T03:54:51Z) - Partial Is Better Than All: Revisiting Fine-tuning Strategy for Few-shot
Learning [76.98364915566292]
一般的なプラクティスは、まずベースセット上でモデルをトレーニングし、その後、微調整によって新しいクラスに移行することである。
本稿では,基本モデル内の特定の層を凍結あるいは微調整することにより,部分的知識の伝達を提案する。
提案手法の有効性を実証するために, CUB と mini-ImageNet の広範な実験を行った。
論文 参考訳(メタデータ) (2021-02-08T03:27:05Z) - Fast Few-Shot Classification by Few-Iteration Meta-Learning [173.32497326674775]
数ショット分類のための高速な最適化に基づくメタラーニング手法を提案する。
我々の戦略はメタ学習において学習すべき基礎学習者の目的の重要な側面を可能にする。
我々は、我々のアプローチの速度と効果を実証し、総合的な実験分析を行う。
論文 参考訳(メタデータ) (2020-10-01T15:59:31Z) - Rethinking Few-Shot Image Classification: a Good Embedding Is All You
Need? [72.00712736992618]
メタトレーニングセット上で教師付きあるいは自己教師型表現を学習する単純なベースラインが、最先端の数ショット学習方法より優れていることを示す。
追加の増量は自己蒸留によって達成できる。
我々は,この発見が,画像分類ベンチマークとメタ学習アルゴリズムの役割を再考する動機となっていると考えている。
論文 参考訳(メタデータ) (2020-03-25T17:58:42Z) - Unraveling Meta-Learning: Understanding Feature Representations for
Few-Shot Tasks [55.66438591090072]
メタラーニングの基礎となる力学と、メタラーニングを用いて訓練されたモデルと古典的に訓練されたモデルの違いをよりよく理解する。
数ショット分類のための標準訓練ルーチンの性能を高める正則化器を開発した。
論文 参考訳(メタデータ) (2020-02-17T03:18:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。