論文の概要: Meta Faster R-CNN: Towards Accurate Few-Shot Object Detection with
Attentive Feature Alignment
- arxiv url: http://arxiv.org/abs/2104.07719v1
- Date: Thu, 15 Apr 2021 19:01:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-19 14:31:21.687272
- Title: Meta Faster R-CNN: Towards Accurate Few-Shot Object Detection with
Attentive Feature Alignment
- Title(参考訳): Meta Faster R-CNN: 注意的特徴アライメントによる精度の高いFew-Shotオブジェクト検出を目指して
- Authors: Guangxing Han, Shiyuan Huang, Jiawei Ma, Yicheng He, Shih-Fu Chang
- Abstract要約: Few-shot Object Detection (FSOD) は、少数の例でオブジェクトを検出することを目的としている。
本稿では,データ不足ベースクラスから学習したメタ知識を新しいクラスに転送することで,メタラーニングに基づくマイショットオブジェクト検出手法を提案する。
- 参考スコア(独自算出の注目度): 33.446875089255876
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot object detection (FSOD) aims to detect objects using only few
examples. It's critically needed for many practical applications but so far
remains challenging. We propose a meta-learning based few-shot object detection
method by transferring meta-knowledge learned from data-abundant base classes
to data-scarce novel classes. Our method incorporates a coarse-to-fine approach
into the proposal based object detection framework and integrates prototype
based classifiers into both the proposal generation and classification stages.
To improve proposal generation for few-shot novel classes, we propose to learn
a lightweight matching network to measure the similarity between each spatial
position in the query image feature map and spatially-pooled class features,
instead of the traditional object/nonobject classifier, thus generating
category-specific proposals and improving proposal recall for novel classes. To
address the spatial misalignment between generated proposals and few-shot class
examples, we propose a novel attentive feature alignment method, thus improving
the performance of few-shot object detection. Meanwhile we jointly learn a
Faster R-CNN detection head for base classes. Extensive experiments conducted
on multiple FSOD benchmarks show our proposed approach achieves state of the
art results under (incremental) few-shot learning settings.
- Abstract(参考訳): Few-shot Object Detection (FSOD) は、少数の例でオブジェクトを検出することを目的としている。
多くの実用的なアプリケーションで必須ですが、今のところは困難です。
本稿では,データ不足ベースクラスから学習したメタ知識を新しいクラスに転送することで,メタラーニングに基づくマイショットオブジェクト検出手法を提案する。
提案手法は,提案に基づくオブジェクト検出フレームワークに粗いアプローチを取り入れ,プロトタイプベースの分類器を提案生成段階と分類段階の両方に統合する。
本稿では,従来のオブジェクト/オブジェクト分類器の代わりに,検索画像の特徴マップ内の各空間位置と空間プールされたクラス特徴との類似性を測定する軽量マッチングネットワークを学習し,カテゴリ固有の提案を生成し,新規クラスの提案リコールを改善することを提案する。
生成した提案と少数ショットクラス例の空間的不整合に対処するため,新しい注意的特徴アライメント法を提案し,少数ショットオブジェクト検出の性能を向上させる。
一方、ベースクラスの高速R-CNN検出ヘッドを共同で学習する。
複数のFSODベンチマークで実施した大規模な実験により,提案手法により,(インクリメンタルな)数ショットの学習条件下での成果が得られた。
関連論文リスト
- Frustratingly Simple but Effective Zero-shot Detection and Segmentation:
Analysis and a Strong Baseline [45.03824571286718]
オブジェクト検出とセグメンテーションの方法は、トレーニングに豊富なインスタンスレベルのアノテーションを必要とすることが多い。
これを解決するために、ゼロショットオブジェクト検出(またはセグメンテーション)のタスクは、管理できないカテゴリのオブジェクトインスタンスを特定し、ローカライズするための効果的な方法を学ぶことを目的としている。
本研究では,これらの設計選択を幅広く研究し,単純かつ極めて効果的なゼロショット認識手法を慎重に構築する。
論文 参考訳(メタデータ) (2023-02-14T20:00:30Z) - Meta-DETR: Image-Level Few-Shot Detection with Inter-Class Correlation
Exploitation [100.87407396364137]
画像レベルの最小ショット検出装置であるMeta-DETRを設計し、(i)クラス間相関メタ学習戦略を新たに導入する。
複数の数ショットのオブジェクト検出ベンチマーク実験により、提案したMeta-DETRは最先端の手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2022-07-30T13:46:07Z) - Incremental-DETR: Incremental Few-Shot Object Detection via
Self-Supervised Learning [60.64535309016623]
本稿では,DeTRオブジェクト検出器上での微調整および自己教師型学習によるインクリメンタル・デクリメンタル・デクリメンタル・デクリメンタル・オブジェクト検出を提案する。
まず,DeTRのクラス固有のコンポーネントを自己監督で微調整する。
さらに,DeTRのクラス固有のコンポーネントに知識蒸留を施した数発の微調整戦略を導入し,破滅的な忘れを伴わずに新しいクラスを検出するネットワークを奨励する。
論文 参考訳(メタデータ) (2022-05-09T05:08:08Z) - Query Adaptive Few-Shot Object Detection with Heterogeneous Graph
Convolutional Networks [33.446875089255876]
Few-shot Object Detection (FSOD) は、いくつかの例を使って見えないオブジェクトを検出することを目的としている。
異種グラフ畳み込みネットワークを用いた新しいFSODモデルを提案する。
論文 参考訳(メタデータ) (2021-12-17T22:08:15Z) - Plug-and-Play Few-shot Object Detection with Meta Strategy and Explicit
Localization Inference [78.41932738265345]
本稿では, 微調整を行なわずに新しいカテゴリーの物体を正確に検出できるプラグ検出器を提案する。
局所化プロセスに2つの明示的な推論を導入し、アノテーション付きデータへの依存を減らす。
これは、様々な評価プロトコルの下で、効率、精度、リコールの両方において大きなリードを示している。
論文 参考訳(メタデータ) (2021-10-26T03:09:57Z) - Discovery-and-Selection: Towards Optimal Multiple Instance Learning for
Weakly Supervised Object Detection [86.86602297364826]
複数インスタンス学習(DS-MIL)と融合した発見・選択手法を提案する。
我々の提案するDS-MILアプローチは,最先端の性能を報告しながら,ベースラインを一貫して改善することができる。
論文 参考訳(メタデータ) (2021-10-18T07:06:57Z) - Experience feedback using Representation Learning for Few-Shot Object
Detection on Aerial Images [2.8560476609689185]
大規模なリモートセンシング画像データセットであるDOTAを用いて,本手法の性能評価を行った。
特に、数発のオブジェクト検出タスクの固有の弱点を強調します。
論文 参考訳(メタデータ) (2021-09-27T13:04:53Z) - A Few-Shot Sequential Approach for Object Counting [63.82757025821265]
画像中のオブジェクトに逐次出席するクラスアテンション機構を導入し,それらの特徴を抽出する。
提案手法は点レベルのアノテーションに基づいて訓練され,モデルのクラス依存的・クラス依存的側面を乱す新しい損失関数を用いる。
本稿では,FSODやMS COCOなど,さまざまなオブジェクトカウント/検出データセットについて報告する。
論文 参考訳(メタデータ) (2020-07-03T18:23:39Z) - One-Shot Object Detection without Fine-Tuning [62.39210447209698]
本稿では,第1ステージのMatching-FCOSネットワークと第2ステージのStructure-Aware Relation Moduleからなる2段階モデルを提案する。
また,検出性能を効果的に向上する新たなトレーニング戦略を提案する。
提案手法は,複数のデータセット上で一貫した最先端のワンショット性能を上回る。
論文 参考訳(メタデータ) (2020-05-08T01:59:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。