論文の概要: DeFRCN: Decoupled Faster R-CNN for Few-Shot Object Detection
- arxiv url: http://arxiv.org/abs/2108.09017v1
- Date: Fri, 20 Aug 2021 06:12:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-23 13:27:51.179512
- Title: DeFRCN: Decoupled Faster R-CNN for Few-Shot Object Detection
- Title(参考訳): DeFRCN:Few-Shotオブジェクト検出のためのより高速なR-CNN
- Authors: Limeng Qiao, Yuxuan Zhao, Zhiyuan Li, Xi Qiu, Jianan Wu and Chi Zhang
- Abstract要約: 未確認クラスのごく少数の例から、新しいオブジェクトを迅速に検出することを目的としていない。
既存のほとんどのアプローチでは、基本的な検出フレームワークとしてFaster R-CNNを使用している。
DeFRCN (Decoupled Faster R-CNN) というシンプルなアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 17.326702469604676
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot object detection, which aims at detecting novel objects rapidly from
extremely few annotated examples of previously unseen classes, has attracted
significant research interest in the community. Most existing approaches employ
the Faster R-CNN as basic detection framework, yet, due to the lack of tailored
considerations for data-scarce scenario, their performance is often not
satisfactory. In this paper, we look closely into the conventional Faster R-CNN
and analyze its contradictions from two orthogonal perspectives, namely
multi-stage (RPN vs. RCNN) and multi-task (classification vs. localization). To
resolve these issues, we propose a simple yet effective architecture, named
Decoupled Faster R-CNN (DeFRCN). To be concrete, we extend Faster R-CNN by
introducing Gradient Decoupled Layer for multi-stage decoupling and
Prototypical Calibration Block for multi-task decoupling. The former is a novel
deep layer with redefining the feature-forward operation and gradient-backward
operation for decoupling its subsequent layer and preceding layer, and the
latter is an offline prototype-based classification model with taking the
proposals from detector as input and boosting the original classification
scores with additional pairwise scores for calibration. Extensive experiments
on multiple benchmarks show our framework is remarkably superior to other
existing approaches and establishes a new state-of-the-art in few-shot
literature.
- Abstract(参考訳): 未確認クラスの注釈を付した極めて少ない例から,新規な物体を迅速に検出することを目的とした少数ショット物体検出は,コミュニティにおいて大きな研究関心を集めている。
既存のアプローチの多くは、r-cnnを基本的な検出フレームワークとして採用しているが、データスカルスシナリオの最適化された考慮が欠如しているため、その性能は満足できないことが多い。
本稿では,従来のFaster R-CNNを詳しく検討し,その矛盾点を2つの直交的視点(RPN対RCNN)とマルチタスク(クラス化対ローカライゼーション)から解析する。
これらの問題を解決するために,Decoupled Faster R-CNN (DeFRCN) というシンプルなアーキテクチャを提案する。
具体的には、マルチステージデカップリングのためのグラディエントデカップリング層とマルチタスクデカップリングのためのプロトタイプキャリブレーションブロックを導入することで、より高速なR-CNNを拡張する。
前者は,次の層と前層を分離する特徴フォワード動作と勾配バックワード動作を再定義した,新しい深層であり,後者は,検出器の提案を入力として,元の分類スコアを追加のペアワイズスコアで高めるオフラインプロトタイプベースの分類モデルである。
複数のベンチマークに関する広範囲な実験によって、我々のフレームワークは他の既存のアプローチよりも著しく優れていることが分かり、わずかな文献で新しい最先端の手法を確立しました。
関連論文リスト
- Informed deep hierarchical classification: a non-standard analysis inspired approach [0.0]
出力層の前に配置された特定のプロジェクション演算子を備えた多出力ディープニューラルネットワークで構成されている。
このようなアーキテクチャの設計は、LH-DNN(Lexicographic Hybrid Deep Neural Network)と呼ばれ、異なる研究分野と非常に離れた研究分野のツールを組み合わせることで実現されている。
アプローチの有効性を評価するために、階層的な分類タスクに適した畳み込みニューラルネットワークであるB-CNNと比較する。
論文 参考訳(メタデータ) (2024-09-25T14:12:50Z) - Small Object Detection via Coarse-to-fine Proposal Generation and
Imitation Learning [52.06176253457522]
本稿では,粗粒度パイプラインと特徴模倣学習に基づく小型物体検出に適した2段階フレームワークを提案する。
CFINetは、大規模な小さなオブジェクト検出ベンチマークであるSODA-DとSODA-Aで最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-08-18T13:13:09Z) - Fast Hierarchical Learning for Few-Shot Object Detection [57.024072600597464]
転送学習アプローチは、最近、数ショット検出タスクで有望な結果を得た。
これらのアプローチは、ベース検出器の微調整による破滅的な忘れ込みの問題に悩まされる。
この作業における上記の問題に対処する。
論文 参考訳(メタデータ) (2022-10-10T20:31:19Z) - ReAct: Temporal Action Detection with Relational Queries [84.76646044604055]
本研究は,アクションクエリを備えたエンコーダ・デコーダフレームワークを用いて,時間的行動検出(TAD)の進展を図ることを目的とする。
まず,デコーダ内の関係注意機構を提案し,その関係に基づいてクエリ間の関心を誘導する。
最後に、高品質なクエリを区別するために、推論時に各アクションクエリのローカライズ品質を予測することを提案する。
論文 参考訳(メタデータ) (2022-07-14T17:46:37Z) - Plug-and-Play Few-shot Object Detection with Meta Strategy and Explicit
Localization Inference [78.41932738265345]
本稿では, 微調整を行なわずに新しいカテゴリーの物体を正確に検出できるプラグ検出器を提案する。
局所化プロセスに2つの明示的な推論を導入し、アノテーション付きデータへの依存を減らす。
これは、様々な評価プロトコルの下で、効率、精度、リコールの両方において大きなリードを示している。
論文 参考訳(メタデータ) (2021-10-26T03:09:57Z) - Meta Faster R-CNN: Towards Accurate Few-Shot Object Detection with
Attentive Feature Alignment [33.446875089255876]
Few-shot Object Detection (FSOD) は、少数の例でオブジェクトを検出することを目的としている。
本稿では,データ不足ベースクラスから学習したメタ知識を新しいクラスに転送することで,メタラーニングに基づくマイショットオブジェクト検出手法を提案する。
論文 参考訳(メタデータ) (2021-04-15T19:01:27Z) - Anchor-free Small-scale Multispectral Pedestrian Detection [88.7497134369344]
適応型単一段アンカーフリーベースアーキテクチャにおける2つのモードの効果的かつ効率的な多重スペクトル融合法を提案する。
我々は,直接的境界ボックス予測ではなく,対象の中心と規模に基づく歩行者表現の学習を目指す。
その結果,小型歩行者の検出における本手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-08-19T13:13:01Z) - One-Shot Object Detection without Fine-Tuning [62.39210447209698]
本稿では,第1ステージのMatching-FCOSネットワークと第2ステージのStructure-Aware Relation Moduleからなる2段階モデルを提案する。
また,検出性能を効果的に向上する新たなトレーニング戦略を提案する。
提案手法は,複数のデータセット上で一貫した最先端のワンショット性能を上回る。
論文 参考訳(メタデータ) (2020-05-08T01:59:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。