論文の概要: Universal-Prototype Augmentation for Few-Shot Object Detection
- arxiv url: http://arxiv.org/abs/2103.01077v1
- Date: Mon, 1 Mar 2021 15:35:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-03 16:31:48.466979
- Title: Universal-Prototype Augmentation for Few-Shot Object Detection
- Title(参考訳): Few-Shotオブジェクト検出のためのUniversal-Prototype Augmentation
- Authors: Aming Wu, Yahong Han, Linchao Zhu, Yi Yang, Cheng Deng
- Abstract要約: Few-shot Object Detection (FSOD)は、ラベル付きサンプルの少ない新しいオブジェクト検出のパフォーマンスを強化することを目的とする。
少数のサンプルの制約を緩和するため、新しいオブジェクトの学習機能の一般化能力の向上が重要な役割を果たす。
我々は,すべての対象カテゴリから学習した新しいプロトタイプ,すなわちユニバーサルプロトタイプを提案する。
- 参考スコア(独自算出の注目度): 128.4592084104352
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot object detection (FSOD) aims to strengthen the performance of novel
object detection with few labeled samples. To alleviate the constraint of few
samples, enhancing the generalization ability of learned features for novel
objects plays a key role. Thus, the feature learning process of FSOD should
focus more on intrinsical object characteristics, which are invariant under
different visual changes and therefore are helpful for feature generalization.
Unlike previous attempts of the meta-learning paradigm, in this paper, we
explore how to smooth object features with intrinsical characteristics that are
universal across different object categories. We propose a new prototype,
namely universal prototype, that is learned from all object categories. Besides
the advantage of characterizing invariant characteristics, the universal
prototypes alleviate the impact of unbalanced object categories. After
augmenting object features with the universal prototypes, we impose a
consistency loss to maximize the agreement between the augmented features and
the original one, which is beneficial for learning invariant object
characteristics. Thus, we develop a new framework of few-shot object detection
with universal prototypes (${FSOD}^{up}$) that owns the merit of feature
generalization towards novel objects. Experimental results on PASCAL VOC and MS
COCO demonstrate the effectiveness of ${FSOD}^{up}$. Particularly, for the
1-shot case of VOC Split2, ${FSOD}^{up}$ outperforms the baseline by 6.8\% in
terms of mAP. Moreover, we further verify ${FSOD}^{up}$ on a long-tail
detection dataset, i.e., LVIS. And employing ${FSOD}^{up}$ outperforms the
state-of-the-art method.
- Abstract(参考訳): Few-shot Object Detection (FSOD)は、ラベル付きサンプルの少ない新しいオブジェクト検出のパフォーマンスを強化することを目的とする。
少数のサンプルの制約を緩和するため、新しいオブジェクトの学習機能の一般化能力の向上が重要な役割を果たす。
したがって、fsodの特徴学習プロセスは、異なる視覚変化の下で不変であり、特徴の一般化に役立つ本質的対象特性により焦点をあてるべきである。
本稿では、メタラーニングパラダイムのこれまでの試みと異なり、異なるオブジェクトカテゴリにまたがって普遍的な特性を持つオブジェクトの特徴を滑らかにする方法を考察する。
我々は,すべての対象カテゴリから学習した新しいプロトタイプ,すなわちユニバーサルプロトタイプを提案する。
不変特性を特徴付ける利点に加えて、ユニバーサルプロトタイプは非平衡対象圏の影響を緩和する。
オブジェクト特徴を普遍的なプロトタイプで拡張した後、拡張特徴と元の特徴との一致を最大化するために一貫性損失を課し、不変なオブジェクト特性を学習するのに有益である。
そこで我々は,新規なオブジェクトに対する特徴一般化のメリットを持つユニバーサルプロトタイプ({FSOD}^{up}$)を用いた,少数ショットオブジェクト検出の新しいフレームワークを開発した。
PASCAL VOCとMS COCOの実験結果は${FSOD}^{up}$の有効性を示しています。
特に、VOC Split2 の 1 ショットの場合、${FSOD}^{up}$ は mAP の点で 6.8 % を上回ります。
さらに、長尾検出データセット、すなわちLVIS上で ${FSOD}^{up}$ をさらに検証する。
そして$FSOD}^{up}$を使うことは最先端のメソッドよりも優れています。
関連論文リスト
- Negative Prototypes Guided Contrastive Learning for WSOD [8.102080369924911]
近年,画像レベルのアノテーションのみを持つ弱監視対象検出(WSOD)が注目されている。
本稿では,Native Prototypes Guided Contrastive Learning Architectureを提案する。
提案手法は最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-06-04T08:16:26Z) - Fine-Grained Prototypes Distillation for Few-Shot Object Detection [8.795211323408513]
Few-shot Object Detection (FSOD) は、新しい物体検出のためのジェネリック検出器を、少数の訓練例で拡張することを目的としている。
一般に、メタラーニングに基づく手法は、新しいサンプルをクラスプロトタイプにエンコードするために追加のサポートブランチを使用する。
より堅牢な新しいオブジェクト検出のために、特徴ある局所的コンテキストをキャプチャするためには、新しい方法が必要である。
論文 参考訳(メタデータ) (2024-01-15T12:12:48Z) - Reflection Invariance Learning for Few-shot Semantic Segmentation [53.20466630330429]
Few-shot semantic segmentation (FSS) は、いくつかのアノテーション付きサポートイメージを持つクエリイメージにおいて、目に見えないクラスのオブジェクトをセグメントすることを目的としている。
本稿では,マルチビューマッチング方式でリフレクション不変性をマイニングするための,新しい数ショットセグメンテーションフレームワークを提案する。
PASCAL-$5textiti$とCOCO-$20textiti$データセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-06-01T15:14:58Z) - Robust Region Feature Synthesizer for Zero-Shot Object Detection [87.79902339984142]
我々は,クラス内セマンティック・ディバージングコンポーネントとクラス間構造保存コンポーネントを含む,新しいゼロショットオブジェクト検出フレームワークを構築した。
リモートセンシング画像においてゼロショット物体検出を行う最初の研究である。
論文 参考訳(メタデータ) (2022-01-01T03:09:15Z) - Dual Prototypical Contrastive Learning for Few-shot Semantic
Segmentation [55.339405417090084]
本稿では,FSSタスクに適合する2つの特徴的コントラスト学習手法を提案する。
第一の考え方は、プロトタイプの特徴空間におけるクラス内距離を減少させながら、クラス間距離を増やすことで、プロトタイプをより差別的にすることである。
提案手法は,PASCAL-5iおよびCOCO-20iデータセット上で,最先端のFSS手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-09T08:14:50Z) - Plug and Play, Model-Based Reinforcement Learning [60.813074750879615]
我々は、既知のオブジェクトクラスから新しいオブジェクトをゼロショットで統合できるオブジェクトベースの表現を導入する。
これは、グローバル遷移力学を局所遷移関数の和として表現することで達成される。
実験により, 様々なセットアップにおいて, サンプル効率が達成できることが示された。
論文 参考訳(メタデータ) (2021-08-20T01:20:15Z) - FSCE: Few-Shot Object Detection via Contrastive Proposal Encoding [14.896822373116729]
コントラスト的提案(FSCE)によるFew-Shotオブジェクト検出について述べる。
FSCEは、検出されたオブジェクトの分類を容易にするコントラスト認識オブジェクトエンコーディングを学ぶためのシンプルで効果的なアプローチです。
我々の設計は、任意のショットとすべてのデータにおいて現在の最先端の作業よりも優れており、標準ベンチマークPASCAL VOCでは+8.8%、挑戦ベンチマークでは+2.7%である。
論文 参考訳(メタデータ) (2021-03-10T09:15:05Z) - Fine-Grained Dynamic Head for Object Detection [68.70628757217939]
本稿では,各インスタンスの異なるスケールからfpn特徴の画素レベルの組み合わせを条件付きで選択する,きめ細かい動的ヘッドを提案する。
実験は,いくつかの最先端検出ベンチマークにおける提案手法の有効性と有効性を示す。
論文 参考訳(メタデータ) (2020-12-07T08:16:32Z) - Towards Better Object Detection in Scale Variation with Adaptive Feature
Selection [3.5352273012717044]
チャネル次元の多レベル表現を融合する方法を自動学習する新しい適応的特徴選択モジュール(AFSM)を提案する。
これは、特徴ピラミッド構造を持つ検出器の性能を著しく向上させる。
クラス不均衡問題に対処するために,クラス対応サンプリング機構(CASM)を提案する。
論文 参考訳(メタデータ) (2020-12-06T13:41:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。