論文の概要: Revisiting Deep Local Descriptor for Improved Few-Shot Classification
- arxiv url: http://arxiv.org/abs/2103.16009v1
- Date: Tue, 30 Mar 2021 00:48:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-31 15:00:52.666916
- Title: Revisiting Deep Local Descriptor for Improved Few-Shot Classification
- Title(参考訳): 深部局所ディスクリプタを改良したFew-Shot分類法
- Authors: Jun He, Richang Hong, Xueliang Liu, Mingliang Xu and Meng Wang
- Abstract要約: textbfDense textbfClassification と textbfAttentive textbfPooling を利用して埋め込みの質を向上させる方法を示す。
広範に使われているグローバル平均プール (GAP) の代わりに, 注意深いプールを施し, 特徴マップをプールすることを提案する。
- 参考スコア(独自算出の注目度): 56.74552164206737
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot classification studies the problem of quickly adapting a deep
learner to understanding novel classes based on few support images. In this
context, recent research efforts have been aimed at designing more and more
complex classifiers that measure similarities between query and support images,
but left the importance of feature embeddings seldom explored. We show that the
reliance on sophisticated classifier is not necessary and a simple classifier
applied directly to improved feature embeddings can outperform state-of-the-art
methods. To this end, we present a new method named \textbf{DCAP} in which we
investigate how one can improve the quality of embeddings by leveraging
\textbf{D}ense \textbf{C}lassification and \textbf{A}ttentive \textbf{P}ooling.
Specifically, we propose to pre-train a learner on base classes with abundant
samples to solve dense classification problem first and then fine-tune the
learner on a bunch of randomly sampled few-shot tasks to adapt it to few-shot
scenerio or the test time scenerio. We suggest to pool feature maps by applying
attentive pooling instead of the widely used global average pooling (GAP) to
prepare embeddings for few-shot classification during meta-finetuning.
Attentive pooling learns to reweight local descriptors, explaining what the
learner is looking for as evidence for decision making. Experiments on two
benchmark datasets show the proposed method to be superior in multiple few-shot
settings while being simpler and more explainable. Code is available at:
\url{https://github.com/Ukeyboard/dcap/}.
- Abstract(参考訳): 少数ショット分類は、少ないサポートイメージに基づいて、深層学習者が新しいクラスを理解するために素早く適応する問題を研究している。
この文脈において、最近の研究は、クエリとサポート画像の類似性を計測するより複雑な分類器を設計することを目的としている。
高度な分類器への依存は不要であり、改良された機能埋め込みに直接適用した単純な分類器は最先端の手法より優れていることを示す。
そこで本研究では,新たな手法である \textbf{dcap} を提案する。ここでは, \textbf{d}ense \textbf{c}lassification と \textbf{a}ttentive \textbf{p}ooling を用いて,埋め込みの質を向上させる方法について検討する。
具体的には,多くのサンプルをベースクラスに事前学習して,まず高密度な分類問題を解き,次にランダムにサンプル化した数ショットタスクを微調整して,少数ショットシーンリオやテストタイムシーンリオに適応させることを提案する。
メタファインタニングの際,多用されるグローバル平均プール (GAP) の代わりに注意深いプールを応用して, 特徴マップをプールすることを提案する。
注意プールは、地元の記述者を再強調することを学び、学習者が求めるものを意思決定の証拠として説明する。
2つのベンチマークデータセットの実験は、提案手法がよりシンプルで説明しやすい複数のショット設定において優れていることを示している。
コードは \url{https://github.com/ukeyboard/dcap/} で入手できる。
関連論文リスト
- Semantic Enhanced Few-shot Object Detection [37.715912401900745]
本稿では, セマンティックな埋め込みを利用してより優れた検出を行う, 微調整に基づくFSODフレームワークを提案する。
提案手法は,各新規クラスが類似の基底クラスと混同されることなく,コンパクトな特徴空間を構築することを可能にする。
論文 参考訳(メタデータ) (2024-06-19T12:40:55Z) - Rethinking Few-shot 3D Point Cloud Semantic Segmentation [62.80639841429669]
本稿では,FS-PCSによる3Dポイント・クラウドセマンティックセマンティックセグメンテーションについて再検討する。
我々は、最先端の2つの重要な問題、前景の漏洩とスパースポイントの分布に焦点をあてる。
これらの問題に対処するために、新しいベンチマークを構築するための標準化されたFS-PCS設定を導入する。
論文 参考訳(メタデータ) (2024-03-01T15:14:47Z) - Few-shot Image Classification based on Gradual Machine Learning [6.935034849731568]
少ないショット画像分類は、ラベル付きサンプルのみを使用してラベル付きイメージを正確に分類することを目的としている。
段階的機械学習(GML)の非i.dパラダイムに基づく新しいアプローチを提案する。
提案手法は精度でSOTAの性能を1-5%向上させることができることを示す。
論文 参考訳(メタデータ) (2023-07-28T12:30:41Z) - Fast Hierarchical Learning for Few-Shot Object Detection [57.024072600597464]
転送学習アプローチは、最近、数ショット検出タスクで有望な結果を得た。
これらのアプローチは、ベース検出器の微調整による破滅的な忘れ込みの問題に悩まされる。
この作業における上記の問題に対処する。
論文 参考訳(メタデータ) (2022-10-10T20:31:19Z) - A Simple Approach to Adversarial Robustness in Few-shot Image
Classification [20.889464448762176]
単純な移動学習に基づくアプローチは、逆向きに頑健な数ショット分類器を訓練するのに有効であることを示す。
また,少数ショットカテゴリのセントロイドをベースクラスに校正する手法を提案する。
論文 参考訳(メタデータ) (2022-04-11T22:46:41Z) - Class-Incremental Learning with Strong Pre-trained Models [97.84755144148535]
CIL(Class-incremental Learning)は、少数のクラス(ベースクラス)から始まる設定で広く研究されている。
我々は、多数のベースクラスで事前訓練された強力なモデルから始まるCILの実証済み実世界の設定について検討する。
提案手法は、解析されたCIL設定すべてに頑健で一般化されている。
論文 参考訳(メタデータ) (2022-04-07T17:58:07Z) - A Closer Look at Few-Shot Video Classification: A New Baseline and
Benchmark [33.86872697028233]
本研究は,3つのコントリビューションを生かした映像分類の詳細な研究である。
まず,既存のメートル法を一貫した比較研究を行い,表現学習の限界を明らかにする。
第2に,新しいアクションクラスとImageNetオブジェクトクラスとの間には高い相関関係があることが判明した。
第3に,事前学習をせずに将来的な数ショットビデオ分類を容易にするため,より多くのベースデータを持つ新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2021-10-24T06:01:46Z) - Contrastive Prototype Learning with Augmented Embeddings for Few-Shot
Learning [58.2091760793799]
拡張埋め込み(CPLAE)モデルを用いた新しいコントラスト型プロトタイプ学習を提案する。
クラスプロトタイプをアンカーとして、CPLは、同じクラスのクエリサンプルを、異なるクラスのサンプルを、さらに遠くに引き出すことを目的としている。
いくつかのベンチマークによる大規模な実験により,提案したCPLAEが新たな最先端を実現することが示された。
論文 参考訳(メタデータ) (2021-01-23T13:22:44Z) - UniT: Unified Knowledge Transfer for Any-shot Object Detection and
Segmentation [52.487469544343305]
オブジェクト検出とセグメンテーションの方法は、トレーニングのための大規模インスタンスレベルのアノテーションに依存します。
本稿では,直感的かつ統一的な半教師付きモデルを提案する。
論文 参考訳(メタデータ) (2020-06-12T22:45:47Z) - Weakly-supervised Object Localization for Few-shot Learning and
Fine-grained Few-shot Learning [0.5156484100374058]
少数のサンプルから新しい視覚カテゴリーを学習することを目的としている。
本稿では,自己認識型補完モジュール(SACモジュール)を提案する。
また,数発の分類のために,識別的深層記述子を選択するためのアクティブマスクも生成する。
論文 参考訳(メタデータ) (2020-03-02T14:07:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。