論文の概要: FSCE: Few-Shot Object Detection via Contrastive Proposal Encoding
- arxiv url: http://arxiv.org/abs/2103.05950v1
- Date: Wed, 10 Mar 2021 09:15:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-12 14:17:48.858686
- Title: FSCE: Few-Shot Object Detection via Contrastive Proposal Encoding
- Title(参考訳): FSCE:Contrastive Proposal EncodingによるFew-Shotオブジェクト検出
- Authors: Bo Sun, Banghuai Li, Shengcai Cai, Ye Yuan, Chi Zhang
- Abstract要約: コントラスト的提案(FSCE)によるFew-Shotオブジェクト検出について述べる。
FSCEは、検出されたオブジェクトの分類を容易にするコントラスト認識オブジェクトエンコーディングを学ぶためのシンプルで効果的なアプローチです。
我々の設計は、任意のショットとすべてのデータにおいて現在の最先端の作業よりも優れており、標準ベンチマークPASCAL VOCでは+8.8%、挑戦ベンチマークでは+2.7%である。
- 参考スコア(独自算出の注目度): 14.896822373116729
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Emerging interests have been brought to recognize previously unseen objects
given very few training examples, known as few-shot object detection (FSOD).
Recent researches demonstrate that good feature embedding is the key to reach
favorable few-shot learning performance. We observe object proposals with
different Intersection-of-Union (IoU) scores are analogous to the intra-image
augmentation used in contrastive approaches. And we exploit this analogy and
incorporate supervised contrastive learning to achieve more robust objects
representations in FSOD. We present Few-Shot object detection via Contrastive
proposals Encoding (FSCE), a simple yet effective approach to learning
contrastive-aware object proposal encodings that facilitate the classification
of detected objects. We notice the degradation of average precision (AP) for
rare objects mainly comes from misclassifying novel instances as confusable
classes. And we ease the misclassification issues by promoting instance level
intra-class compactness and inter-class variance via our contrastive proposal
encoding loss (CPE loss). Our design outperforms current state-of-the-art works
in any shot and all data splits, with up to +8.8% on standard benchmark PASCAL
VOC and +2.7% on challenging COCO benchmark. Code is available at:
https://github.com/bsun0802/FSCE.git
- Abstract(参考訳): 未確認物体(FSOD)と呼ばれる非常に少数の訓練例から、未確認物体の認識に新たな関心がもたらされた。
最近の研究では、優れた機能埋め込みが有利な数ショット学習パフォーマンスを達成する鍵であることを実証している。
We observed object proposals with different Intersection-of-Union (IoU) scores is similar to the intra-image augmentation used in contrastive approach。
そして、我々はこの類推を活用し、FSODでより堅牢なオブジェクト表現を達成するために、教師付きコントラスト学習を組み込む。
対比提案符号化(FSCE)によるFew-Shotオブジェクト検出について述べる。これは、検出されたオブジェクトの分類を容易にする対比認識オブジェクト提案符号化を学習するためのシンプルで効果的なアプローチである。
稀なオブジェクトの平均精度 (ap) の低下は、主に新しいインスタンスを使用可能なクラスとして誤分類することによるものである。
また, インスタンスレベルのクラス内コンパクト性とクラス間分散を, コントラスト的提案符号化損失(CPE損失)を通じて促進することにより, 誤分類問題を緩和する。
我々の設計は、あらゆるショットとすべてのデータ分割において現在の最先端の作業よりも優れており、標準ベンチマークPASCAL VOCでは+8.8%、挑戦的なCOCOベンチマークでは+2.7%である。
https://github.com/bsun0802/fsce.git
関連論文リスト
- Zero-shot Object Counting with Good Exemplars [35.7544908318547]
Zero-shot Object counting (ZOC)は、テスト中のオブジェクトクラス名のみを使用して、手動のアノテーションを必要とせずに、イメージ内のオブジェクトを列挙することを目的としている。
視覚アソシエーションに基づくゼロショットオブジェクトカウント(VA-Count)フレームワークを提案する。
VA-Count は Exemplar Enhancement Module (EEM) と Noise Suppression Module (NSM) から構成される。
論文 参考訳(メタデータ) (2024-07-06T03:37:22Z) - Proposal-Contrastive Pretraining for Object Detection from Fewer Data [11.416621957617334]
本稿では,新しい教師なし総合事前学習手法ProSeCoを提案する。
ProSeCoは、コントラスト学習のために検出器によって生成される多数のオブジェクト提案を使用する。
本手法は,標準および新しいベンチマークにおいて,対象検出のための教師なし事前学習において,最先端の手法であることを示す。
論文 参考訳(メタデータ) (2023-10-25T17:59:26Z) - Few-shot Object Detection in Remote Sensing: Lifting the Curse of
Incompletely Annotated Novel Objects [23.171410277239534]
物体検出のための自己学習型FSOD (ST-FSOD) アプローチを提案する。
提案手法は,様々なFSOD設定における最先端性能を大きなマージンで向上させる。
論文 参考訳(メタデータ) (2023-09-19T13:00:25Z) - SOOD: Towards Semi-Supervised Oriented Object Detection [57.05141794402972]
本稿では, 主流の擬似ラベリングフレームワーク上に構築された, SOOD と呼ばれる, 半教師付きオブジェクト指向物体検出モデルを提案する。
提案した2つの損失をトレーニングした場合,SOODはDOTA-v1.5ベンチマークの様々な設定下で,最先端のSSOD法を超越することを示した。
論文 参考訳(メタデータ) (2023-04-10T11:10:42Z) - Incremental-DETR: Incremental Few-Shot Object Detection via
Self-Supervised Learning [60.64535309016623]
本稿では,DeTRオブジェクト検出器上での微調整および自己教師型学習によるインクリメンタル・デクリメンタル・デクリメンタル・デクリメンタル・オブジェクト検出を提案する。
まず,DeTRのクラス固有のコンポーネントを自己監督で微調整する。
さらに,DeTRのクラス固有のコンポーネントに知識蒸留を施した数発の微調整戦略を導入し,破滅的な忘れを伴わずに新しいクラスを検出するネットワークを奨励する。
論文 参考訳(メタデータ) (2022-05-09T05:08:08Z) - The Overlooked Classifier in Human-Object Interaction Recognition [82.20671129356037]
クラス間の意味的相関を分類ヘッドにエンコードし,重みをHOIの言語埋め込みで初期化する。
我々は,LSE-Sign という新しい損失を,長い尾を持つデータセット上でのマルチラベル学習を強化するために提案する。
我々は,物体検出と人間のポーズを明確なマージンで求める最先端技術よりも優れた,検出不要なHOI分類を可能にする。
論文 参考訳(メタデータ) (2022-03-10T23:35:00Z) - Robust Region Feature Synthesizer for Zero-Shot Object Detection [87.79902339984142]
我々は,クラス内セマンティック・ディバージングコンポーネントとクラス間構造保存コンポーネントを含む,新しいゼロショットオブジェクト検出フレームワークを構築した。
リモートセンシング画像においてゼロショット物体検出を行う最初の研究である。
論文 参考訳(メタデータ) (2022-01-01T03:09:15Z) - Context-Aware Transfer Attacks for Object Detection [51.65308857232767]
本稿では,オブジェクト検出のためのコンテキスト認識攻撃を新たに生成する手法を提案する。
オブジェクトとその相対的な位置と大きさの共起をコンテキスト情報として利用することにより、ターゲットの誤分類攻撃をうまく生成できることを示す。
論文 参考訳(メタデータ) (2021-12-06T18:26:39Z) - Learning Open-World Object Proposals without Learning to Classify [110.30191531975804]
本研究では,各領域の位置と形状がどの接地トラストオブジェクトとどのように重なり合うかによって,各領域の目的性を純粋に推定する,分類不要なオブジェクトローカライゼーションネットワークを提案する。
この単純な戦略は一般化可能な対象性を学び、クロスカテゴリの一般化に関する既存の提案より優れている。
論文 参考訳(メタデータ) (2021-08-15T14:36:02Z) - Meta Faster R-CNN: Towards Accurate Few-Shot Object Detection with
Attentive Feature Alignment [33.446875089255876]
Few-shot Object Detection (FSOD) は、少数の例でオブジェクトを検出することを目的としている。
本稿では,データ不足ベースクラスから学習したメタ知識を新しいクラスに転送することで,メタラーニングに基づくマイショットオブジェクト検出手法を提案する。
論文 参考訳(メタデータ) (2021-04-15T19:01:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。