論文の概要: Few-Shot Object Detection via Association and DIscrimination
- arxiv url: http://arxiv.org/abs/2111.11656v1
- Date: Tue, 23 Nov 2021 05:04:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-25 02:28:46.179514
- Title: Few-Shot Object Detection via Association and DIscrimination
- Title(参考訳): アソシエーションとDiscriminationによるFew-Shotオブジェクト検出
- Authors: Yuhang Cao, Jiaqi Wang, Ying Jin, Tong Wu, Kai Chen, Ziwei Liu, Dahua
Lin
- Abstract要約: AssociationとDIscriminationによるオブジェクト検出は、新しいクラスごとに2つのステップで識別可能な特徴空間を構築している。
Pascal VOCとMS-COCOデータセットの実験では、FADIは新しいSOTAパフォーマンスを実現し、ショット/スプリットのベースラインを+18.7で大幅に改善した。
- 参考スコア(独自算出の注目度): 83.8472428718097
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Object detection has achieved substantial progress in the last decade.
However, detecting novel classes with only few samples remains challenging,
since deep learning under low data regime usually leads to a degraded feature
space. Existing works employ a holistic fine-tuning paradigm to tackle this
problem, where the model is first pre-trained on all base classes with abundant
samples, and then it is used to carve the novel class feature space.
Nonetheless, this paradigm is still imperfect. Durning fine-tuning, a novel
class may implicitly leverage the knowledge of multiple base classes to
construct its feature space, which induces a scattered feature space, hence
violating the inter-class separability. To overcome these obstacles, we propose
a two-step fine-tuning framework, Few-shot object detection via Association and
DIscrimination (FADI), which builds up a discriminative feature space for each
novel class with two integral steps. 1) In the association step, in contrast to
implicitly leveraging multiple base classes, we construct a compact novel class
feature space via explicitly imitating a specific base class feature space.
Specifically, we associate each novel class with a base class according to
their semantic similarity. After that, the feature space of a novel class can
readily imitate the well-trained feature space of the associated base class. 2)
In the discrimination step, to ensure the separability between the novel
classes and associated base classes, we disentangle the classification branches
for base and novel classes. To further enlarge the inter-class separability
between all classes, a set-specialized margin loss is imposed. Extensive
experiments on Pascal VOC and MS-COCO datasets demonstrate FADI achieves new
SOTA performance, significantly improving the baseline in any shot/split by
+18.7. Notably, the advantage is most announced on extremely few-shot
scenarios.
- Abstract(参考訳): オブジェクト検出は過去10年で大幅に進歩しました。
しかし,少ないサンプルしか持たない新しいクラスの検出は困難であり,低データ構造下での深層学習は特徴空間の劣化につながることが多い。
既存の作業では、この問題に対処するために全体論的微調整パラダイムを採用しており、まずモデルが豊富なサンプルを持つ全てのベースクラスで事前訓練され、次に新しいクラス特徴空間を彫るために使用される。
それでも、このパラダイムはまだ不完全です。
微調整の間、新しいクラスは、複数の基底クラスの知識を暗黙的に活用して特徴空間を構築し、それが分散した特徴空間を誘導し、クラス間の分離性を侵害する。
これらの障害を克服するために,2段階の微調整フレームワークであるFADI(Few-shot Object Detection via Association and DIscrimination)を提案する。
1) 複数の基本クラスを暗黙的に活用するのとは対照的に,特定の基本クラス特徴空間を明示的に模倣することで,コンパクトな新規クラス特徴空間を構築する。
具体的には、各新規クラスをそれらの意味的類似性に応じてベースクラスに関連付ける。
その後、新しいクラスの特徴空間は、関連する基底クラスのよく訓練された特徴空間を簡単に模倣することができる。
2) 識別段階において, 新規クラスと関連する基本クラスとの分離性を確保するため, 基本クラスと新規クラスの分類区分を分離する。
すべてのクラス間のクラス間分離性をさらに拡大するため、セット特化マージン損失が課される。
Pascal VOCとMS-COCOデータセットの大規模な実験により、FADIは新しいSOTA性能を実現し、ショット/スプリットのベースラインを+18.7で大幅に改善した。
特筆すべきは、非常に少ないシナリオで最も利点が発表されることだ。
関連論文リスト
- Covariance-based Space Regularization for Few-shot Class Incremental Learning [25.435192867105552]
FSCIL(Few-shot Class Incremental Learning)では,ラベル付きデータに制限のあるクラスを継続的に学習する必要がある。
インクリメンタルセッションにおける限られたデータのため、モデルは新しいクラスを過度に適合させ、ベースクラスの破滅的な忘れを苦しむ傾向にある。
最近の進歩は、基本クラス分布を制約し、新しいクラスの識別的表現を学習するプロトタイプベースのアプローチに頼っている。
論文 参考訳(メタデータ) (2024-11-02T08:03:04Z) - Semantic Enhanced Few-shot Object Detection [37.715912401900745]
本稿では, セマンティックな埋め込みを利用してより優れた検出を行う, 微調整に基づくFSODフレームワークを提案する。
提案手法は,各新規クラスが類似の基底クラスと混同されることなく,コンパクトな特徴空間を構築することを可能にする。
論文 参考訳(メタデータ) (2024-06-19T12:40:55Z) - Delve into Base-Novel Confusion: Redundancy Exploration for Few-Shot Class-Incremental Learning [8.729669566501103]
授業増分学習は,基礎クラスに関する情報を保持しつつ,限られたサンプルを持つ新規クラスからの知識獲得を目的としている。
既存のメソッドは通常、ベースクラスと新規クラスの混同を引き起こし、新しいクラスのサンプルをベースクラスに分類する。
この混乱を軽減するために冗長デカップリングと統合(RDI)を提案する。
論文 参考訳(メタデータ) (2024-05-08T09:38:16Z) - Expandable Subspace Ensemble for Pre-Trained Model-Based Class-Incremental Learning [65.57123249246358]
PTMベースのCILのためのExpAndable Subspace Ensemble (EASE)を提案する。
タスク固有のサブスペースを作成することを目的として、新しいタスクごとに異なる軽量アダプタモジュールをトレーニングする。
我々のプロトタイプ補完戦略は、古いクラスのインスタンスを使わずに、古いクラスの新機能を合成します。
論文 参考訳(メタデータ) (2024-03-18T17:58:13Z) - Open-Vocabulary Object Detection with Meta Prompt Representation and Instance Contrastive Optimization [63.66349334291372]
本稿ではメタプロンプトとインスタンスコントラスト学習(MIC)方式を用いたフレームワークを提案する。
まず、クラスとバックグラウンドのプロンプトを学習するプロンプトが新しいクラスに一般化するのを助けるために、新しいクラスエマージシナリオをシミュレートする。
第二に、クラス内コンパクト性とクラス間分離を促進するためのインスタンスレベルのコントラスト戦略を設計し、新しいクラスオブジェクトに対する検出器の一般化に寄与する。
論文 参考訳(メタデータ) (2024-03-14T14:25:10Z) - Few-Shot Class-Incremental Learning via Training-Free Prototype
Calibration [67.69532794049445]
既存のメソッドでは、新しいクラスのサンプルをベースクラスに誤分類する傾向があり、新しいクラスのパフォーマンスが低下する。
我々は,新しいクラスの識別性を高めるため,簡易かつ効果的なトレーニング-フレア・カロブラシアン (TEEN) 戦略を提案する。
論文 参考訳(メタデータ) (2023-12-08T18:24:08Z) - Learning with Fantasy: Semantic-Aware Virtual Contrastive Constraint for
Few-Shot Class-Incremental Learning [42.551377055029334]
FSCIL (Few-shot class-incremental Learning) は、クラスを忘れずに、限られたサンプルから新しいクラスを継続的に分類することを目的としている。
本稿では,新しいクラスとベースクラスの分離を容易にする新しい手法であるSemantic-Aware Virtual Contrastive Model (SAVC)を提案する。
我々のSAVCは、ベースクラス分離と新しいクラス一般化を著しく促進し、3つの広く使用されているFSCILベンチマークデータセット上で、新しい最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-04-02T01:51:24Z) - Activating the Discriminability of Novel Classes for Few-shot
Segmentation [48.542627940781095]
本稿では,特徴符号化段階とセグメンテーションの予測段階の両方において,新規クラスの識別可能性を明示的に活性化することを提案する。
セグメンテーションの予測段階では、クエリ画像の高信頼画素を用いて自分自身を洗練できる自己修正オンラインフォアグラウンド分類器(SROFB)を学習する。
論文 参考訳(メタデータ) (2022-12-02T12:22:36Z) - Incremental Few-Shot Learning via Implanting and Compressing [13.122771115838523]
増分的なFew-Shot Learningは、いくつかの例から新しいクラスを継続的に学習するモデルを必要とする。
我々はtextbfImplanting と textbfCompressing と呼ばれる2段階の学習戦略を提案する。
具体的には、textbfImplantingのステップにおいて、新しいクラスのデータ分布をデータ・アサンダント・ベース・セットの助けを借りて模倣することを提案する。
textbfのステップでは、特徴抽出器を各新規クラスを正確に表現し、クラス内コンパクト性を高める。
論文 参考訳(メタデータ) (2022-03-19T11:04:43Z) - Fine-grained Angular Contrastive Learning with Coarse Labels [72.80126601230447]
教師付きおよび自己監督型コントラスト前訓練を効果的に組み合わせることができる新しい「Angularの正規化」モジュールを紹介します。
この研究は、C2FS分類のこの新しい、挑戦的で、非常に実用的なトピックに関する将来の研究の道を開くのに役立ちます。
論文 参考訳(メタデータ) (2020-12-07T08:09:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。