論文の概要: Few-Shot Few-Shot Learning and the role of Spatial Attention
- arxiv url: http://arxiv.org/abs/2002.07522v1
- Date: Tue, 18 Feb 2020 12:32:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 20:17:47.069266
- Title: Few-Shot Few-Shot Learning and the role of Spatial Attention
- Title(参考訳): わずかなショット学習と空間的注意の役割
- Authors: Yann Lifchitz, Yannis Avrithis, Sylvaine Picard
- Abstract要約: 少数の例から新しいタスクを学習する能力によって、少しのショットラーニングが動機付けられている。
事前学習されたネットワークはメタラーニングを使わずに、新しいクラスに容易に適応できることが示される。
- 参考スコア(独自算出の注目度): 13.761366942873268
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot learning is often motivated by the ability of humans to learn new
tasks from few examples. However, standard few-shot classification benchmarks
assume that the representation is learned on a limited amount of base class
data, ignoring the amount of prior knowledge that a human may have accumulated
before learning new tasks. At the same time, even if a powerful representation
is available, it may happen in some domain that base class data are limited or
non-existent. This motivates us to study a problem where the representation is
obtained from a classifier pre-trained on a large-scale dataset of a different
domain, assuming no access to its training process, while the base class data
are limited to few examples per class and their role is to adapt the
representation to the domain at hand rather than learn from scratch. We adapt
the representation in two stages, namely on the few base class data if
available and on the even fewer data of new tasks. In doing so, we obtain from
the pre-trained classifier a spatial attention map that allows focusing on
objects and suppressing background clutter. This is important in the new
problem, because when base class data are few, the network cannot learn where
to focus implicitly. We also show that a pre-trained network may be easily
adapted to novel classes, without meta-learning.
- Abstract(参考訳): 少ないショット学習は、しばしば人間がいくつかの例から新しいタスクを学ぶ能力によって動機づけられる。
しかしながら、標準的な少数ショット分類ベンチマークでは、表現は限られた量のベースクラスデータで学習され、新しいタスクを学ぶ前に人間が蓄積した事前知識の量を無視していると仮定している。
同時に、たとえ強力な表現が利用可能であったとしても、ベースクラスデータが制限されたり、存在しない場合もあります。
これにより、異なるドメインの大規模データセット上で事前訓練された分類器から表現が得られ、トレーニングプロセスにアクセスできないと仮定し、ベースクラスデータはクラス毎に少数の例に制限され、それらの役割はスクラッチから学ぶのではなく、ドメインに手動で表現を適用することである。
表現は2つの段階、すなわち、利用可能ないくつかのベースクラスデータと、さらに少ない新しいタスクのデータに適応します。
そこで我々は,事前学習した分類器から,対象物に着目し,背景乱れを抑制する空間的注意マップを得る。
ベースクラスデータが少ない場合、ネットワークは暗黙的にフォーカスする場所を学べないため、これは新しい問題において重要である。
また,事前学習したネットワークはメタ学習なしで,新しいクラスに容易に適応できることを示した。
関連論文リスト
- Cross-Level Distillation and Feature Denoising for Cross-Domain Few-Shot
Classification [49.36348058247138]
トレーニング段階において,対象領域内のラベルなし画像のごく一部をアクセス可能にすることで,ドメイン間数ショット分類の問題に対処する。
我々は,対象データセットのより識別的な特徴を抽出するモデルの能力を高めるため,クロスレベルな知識蒸留法を慎重に設計する。
提案手法は,従来の動的蒸留法を5.44%,1.37%,5ショット分類法を1.37%超えることができる。
論文 参考訳(メタデータ) (2023-11-04T12:28:04Z) - Generalization Bounds for Few-Shot Transfer Learning with Pretrained
Classifiers [26.844410679685424]
本研究では,新しいクラスに移動可能な分類の表現を基礎モデルで学習する能力について検討する。
クラス-機能-変数の崩壊の場合,新しいクラスで学習した特徴マップのわずかな誤差が小さいことを示す。
論文 参考訳(メタデータ) (2022-12-23T18:46:05Z) - Evidential Deep Learning for Class-Incremental Semantic Segmentation [15.563703446465823]
クラス増分学習(Class-Incremental Learning)は、以前トレーニングされたニューラルネットワークを新しいクラスに拡張することを目的とした機械学習の課題である。
本稿では、将来的な非相関クラスの特徴クラスタリングを回避しつつ、ラベルのないクラスをモデル化する方法の問題に対処する。
提案手法は,この問題をディリクレ分布の期待値と推定の不確実性に対応する未知のクラス(背景)確率で計算した,別のフォアグラウンドクラス確率に分解する。
論文 参考訳(メタデータ) (2022-12-06T10:13:30Z) - Few-shot Open-set Recognition Using Background as Unknowns [58.04165813493666]
未使用のオープンセット認識は、見知らぬクラスの限られた訓練データしか持たない、目に見える画像と新しい画像の両方を分類することを目的としている。
提案手法は,複数のベースラインより優れるだけでなく,3つのベンチマークで新たな結果が得られた。
論文 参考訳(メタデータ) (2022-07-19T04:19:29Z) - CvS: Classification via Segmentation For Small Datasets [52.821178654631254]
本稿では,分類ラベルをセグメントマップの予測から導出する小型データセットのコスト効率の高い分類器であるCvSを提案する。
我々は,CvSが従来の手法よりもはるかに高い分類結果が得られることを示す多種多様な問題に対して,本フレームワークの有効性を評価する。
論文 参考訳(メタデータ) (2021-10-29T18:41:15Z) - Bridging Non Co-occurrence with Unlabeled In-the-wild Data for
Incremental Object Detection [56.22467011292147]
物体検出における破滅的忘れを緩和するために,いくつかの漸進的学習法が提案されている。
有効性にもかかわらず、これらの手法は新規クラスのトレーニングデータにラベルのないベースクラスの共起を必要とする。
そこで本研究では,新たな授業の訓練において,欠落した基本クラスが原因で生じる非発生を補うために,未ラベルのインザ・ザ・ワイルドデータを使用することを提案する。
論文 参考訳(メタデータ) (2021-10-28T10:57:25Z) - Few-Shot Incremental Learning with Continually Evolved Classifiers [46.278573301326276]
Few-shot Class-Incremental Learning(FSCIL)は、いくつかのデータポイントから新しい概念を継続的に学習できる機械学習アルゴリズムの設計を目指している。
難点は、新しいクラスからの限られたデータが、重大な過度な問題を引き起こすだけでなく、破滅的な忘れの問題も悪化させることにある。
我々は,適応のための分類器間のコンテキスト情報を伝達するグラフモデルを用いた連続進化型cif(cec)を提案する。
論文 参考訳(メタデータ) (2021-04-07T10:54:51Z) - Low-Resource Domain Adaptation for Compositional Task-Oriented Semantic
Parsing [85.35582118010608]
タスク指向のセマンティックパーシングは仮想アシスタントの重要なコンポーネントである。
近年のディープラーニングの進歩は、より複雑なクエリを解析するいくつかのアプローチを可能にしている。
そこで本研究では,教師付きニューラルネットワークを10倍の精度で高速化する手法を提案する。
論文 参考訳(メタデータ) (2020-10-07T17:47:53Z) - Complementing Representation Deficiency in Few-shot Image
Classification: A Meta-Learning Approach [27.350615059290348]
本稿では,MCRNetを用いたメタラーニング手法を提案する。
特に、潜時空間を埋め込んで、潜時符号を余分な表現情報で再構成し、表現不足を補完する。
我々のエンドツーエンドフレームワークは、3つの標準的な数ショット学習データセット上の画像分類における最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-07-21T13:25:54Z) - Adversarially-Trained Deep Nets Transfer Better: Illustration on Image
Classification [53.735029033681435]
トランスファーラーニングは、訓練済みのディープニューラルネットワークを画像認識タスクに新しいドメインに適用するための強力な方法論である。
本研究では,非逆学習モデルよりも逆学習モデルの方が優れていることを示す。
論文 参考訳(メタデータ) (2020-07-11T22:48:42Z) - Looking back to lower-level information in few-shot learning [4.873362301533825]
本稿では,隠れたニューラルネットワーク層の特徴埋め込みを低レベル支援情報として活用し,分類精度を向上させることを提案する。
筆者らは,MiniImageNet と tieredImageNet という2つの人気の数点学習データセットを用いた実験を行い,この手法がネットワークの低レベル情報を利用して最先端の分類性能を向上できることを示した。
論文 参考訳(メタデータ) (2020-05-27T20:32:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。