論文の概要: Adaptive Base-class Suppression and Prior Guidance Network for One-Shot
Object Detection
- arxiv url: http://arxiv.org/abs/2303.14240v1
- Date: Fri, 24 Mar 2023 19:04:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-28 21:04:33.242773
- Title: Adaptive Base-class Suppression and Prior Guidance Network for One-Shot
Object Detection
- Title(参考訳): 適応ベースクラス抑圧とワンショット物体検出のための事前誘導ネットワーク
- Authors: Wenwen Zhang, Xinyu Xiao, Hangguan Shan and Eryun Liu
- Abstract要約: ワンショットオブジェクト検出(OSOD)は、クエリイメージによって指定された所定のカテゴリに対して、すべてのオブジェクトインスタンスを検出することを目的としている。
本稿では,BSPG(Base-class Suppression and Prior Guidance)ネットワークという新しいフレームワークを提案する。
具体的には,ベースクラス予測器を用いて,ベースクラスのオブジェクトを明示的に検出し,ベースクラス抑制モジュールによって適応的に除去する。
事前誘導モジュールは、非パラメトリックな方法で高レベルの特徴の相関を計算し、クラスに依存しない事前マップを生成し、目的の特徴にリッチなセマンティックな手がかりを与え、その後の検出プロセスを導くように設計されている。
- 参考スコア(独自算出の注目度): 9.44806128120871
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One-shot object detection (OSOD) aims to detect all object instances towards
the given category specified by a query image. Most existing studies in OSOD
endeavor to explore effective cross-image correlation and alleviate the
semantic feature misalignment, however, ignoring the phenomenon of the model
bias towards the base classes and the generalization degradation on the novel
classes. Observing this, we propose a novel framework, namely Base-class
Suppression and Prior Guidance (BSPG) network to overcome the problem.
Specifically, the objects of base categories can be explicitly detected by a
base-class predictor and adaptively eliminated by our base-class suppression
module. Moreover, a prior guidance module is designed to calculate the
correlation of high-level features in a non-parametric manner, producing a
class-agnostic prior map to provide the target features with rich semantic cues
and guide the subsequent detection process. Equipped with the proposed two
modules, we endow the model with a strong discriminative ability to distinguish
the target objects from distractors belonging to the base classes. Extensive
experiments show that our method outperforms the previous techniques by a large
margin and achieves new state-of-the-art performance under various evaluation
settings.
- Abstract(参考訳): one-shot object detection (osod)は、クエリイメージによって指定されたカテゴリに向かって、すべてのオブジェクトインスタンスを検出することを目的としている。
osodの既存の研究のほとんどは、効果的なクロスイメージ相関を探求し、意味的特徴の誤用を緩和しようと試みているが、モデルバイアスの基底クラスに対する現象や、新しいクラスにおける一般化の低下を無視している。
そこで我々は,この問題を克服するために,BSPG(Base-class Suppression and Prior Guidance)ネットワークという新しいフレームワークを提案する。
具体的には,ベースクラス予測器を用いて,ベースクラスのオブジェクトを明示的に検出し,ベースクラス抑制モジュールによって適応的に除去する。
さらに、事前ガイダンスモジュールは、非パラメトリックな方法で高レベルの特徴の相関を計算し、クラスに依存しない事前マップを生成し、目的の特徴にリッチなセマンティックな手がかりを与え、その後の検出プロセスを導くように設計されている。
提案した2つのモジュールが組み合わさったモデルに対して,対象オブジェクトを基本クラスに属するイントラクタと区別する強力な識別能力を与える。
実験の結果,提案手法は従来手法よりも高い性能を示し,各種評価条件下での最先端性能を実現している。
関連論文リスト
- Robust Class-Conditional Distribution Alignment for Partial Domain
Adaptation [0.7892577704654171]
部分的なドメイン適応設定の学習目的におけるプライベートソースカテゴリからの不要なサンプルは、負の転送を招き、分類性能を低下させる可能性がある。
既存の手法、例えば、ターゲット予測の再重み付けや集約などは、この問題に対して脆弱である。
提案手法は,一階のモーメントだけを深く掘り下げて,異なる,コンパクトなカテゴリー分布を導出することによって,これらの制限を克服しようとするものである。
論文 参考訳(メタデータ) (2023-10-18T15:49:46Z) - Small Object Detection via Coarse-to-fine Proposal Generation and
Imitation Learning [52.06176253457522]
本稿では,粗粒度パイプラインと特徴模倣学習に基づく小型物体検出に適した2段階フレームワークを提案する。
CFINetは、大規模な小さなオブジェクト検出ベンチマークであるSODA-DとSODA-Aで最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-08-18T13:13:09Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - Meta-tuning Loss Functions and Data Augmentation for Few-shot Object
Detection [7.262048441360132]
少ないショットのオブジェクト検出は、少数ショットの学習とオブジェクト検出という領域において、新たなトピックである。
本稿では,数発検出を促進できる帰納的バイアスの学習を可能にする訓練手法を提案する。
提案手法は,高パラメトリックかつ複雑な数ショットメタモデルとは対照的に,解釈可能な損失関数を生成する。
論文 参考訳(メタデータ) (2023-04-24T15:14:16Z) - DiGeo: Discriminative Geometry-Aware Learning for Generalized Few-Shot
Object Detection [39.937724871284665]
汎用的な少ショットオブジェクト検出は、豊富なアノテーションと限られたトレーニングデータを持つ新しいクラスで、両方のベースクラス上で正確な検出を実現することを目的としている。
既存のアプローチは、ベースクラスのパフォーマンスを犠牲にして、数ショットの一般化を促進する。
クラス間分離とクラス内コンパクト性の幾何学的特徴を学習するための新しいトレーニングフレームワークDiGeoを提案する。
論文 参考訳(メタデータ) (2023-03-16T22:37:09Z) - CLIP the Gap: A Single Domain Generalization Approach for Object
Detection [60.20931827772482]
単一ドメインの一般化(Single Domain Generalization)は、単一のソースドメイン上でモデルをトレーニングすることで、目に見えないターゲットドメインに一般化する問題に取り組む。
本稿では、事前学習された視覚言語モデルを用いて、テキストプロンプトを介して意味領域の概念を導入することを提案する。
本手法は,検出器のバックボーンから抽出した特徴に作用する意味的拡張戦略と,テキストに基づく分類損失によって実現される。
論文 参考訳(メタデータ) (2023-01-13T12:01:18Z) - Fast Hierarchical Learning for Few-Shot Object Detection [57.024072600597464]
転送学習アプローチは、最近、数ショット検出タスクで有望な結果を得た。
これらのアプローチは、ベース検出器の微調整による破滅的な忘れ込みの問題に悩まされる。
この作業における上記の問題に対処する。
論文 参考訳(メタデータ) (2022-10-10T20:31:19Z) - Incremental-DETR: Incremental Few-Shot Object Detection via
Self-Supervised Learning [60.64535309016623]
本稿では,DeTRオブジェクト検出器上での微調整および自己教師型学習によるインクリメンタル・デクリメンタル・デクリメンタル・デクリメンタル・オブジェクト検出を提案する。
まず,DeTRのクラス固有のコンポーネントを自己監督で微調整する。
さらに,DeTRのクラス固有のコンポーネントに知識蒸留を施した数発の微調整戦略を導入し,破滅的な忘れを伴わずに新しいクラスを検出するネットワークを奨励する。
論文 参考訳(メタデータ) (2022-05-09T05:08:08Z) - Meta Faster R-CNN: Towards Accurate Few-Shot Object Detection with
Attentive Feature Alignment [33.446875089255876]
Few-shot Object Detection (FSOD) は、少数の例でオブジェクトを検出することを目的としている。
本稿では,データ不足ベースクラスから学習したメタ知識を新しいクラスに転送することで,メタラーニングに基づくマイショットオブジェクト検出手法を提案する。
論文 参考訳(メタデータ) (2021-04-15T19:01:27Z) - StarNet: towards Weakly Supervised Few-Shot Object Detection [87.80771067891418]
本稿では、終端から終端までの識別可能な非パラメトリック星モデル検出と分類ヘッドを特徴とする数ショットモデルであるStarNetを紹介する。
このヘッドを通じて、バックボーンは画像レベルのラベルのみを使用してメタトレーニングされ、これまで目に見えないいくつかのテストタスクのカテゴリを共同でローカライズおよび分類するための優れた機能を生成する。
数発の検知器であるため、StarNetは事前トレーニングや新しいクラス適応のためのバウンディングボックスアノテーションを一切必要としない。
論文 参考訳(メタデータ) (2020-03-15T11:35:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。