論文の概要: Dense Relation Distillation with Context-aware Aggregation for Few-Shot
Object Detection
- arxiv url: http://arxiv.org/abs/2103.17115v1
- Date: Tue, 30 Mar 2021 05:34:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-01 14:30:21.558345
- Title: Dense Relation Distillation with Context-aware Aggregation for Few-Shot
Object Detection
- Title(参考訳): Few-Shotオブジェクト検出のためのコンテキスト認識アグリゲーションを用いたDense Relation Distillation
- Authors: Hanzhe Hu, Shuai Bai, Aoxue Li, Jinshi Cui, Liwei Wang
- Abstract要約: 新規なオブジェクトのきめ細かい特徴を、ほんのわずかなデータで簡単に見落としてしまうため、オブジェクト検出は困難である。
本稿では,少数の検出問題に対処するために,DCNet (Context-aware Aggregation) を用いたDense Relation Distillationを提案する。
- 参考スコア(独自算出の注目度): 18.04185751827619
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conventional deep learning based methods for object detection require a large
amount of bounding box annotations for training, which is expensive to obtain
such high quality annotated data. Few-shot object detection, which learns to
adapt to novel classes with only a few annotated examples, is very challenging
since the fine-grained feature of novel object can be easily overlooked with
only a few data available. In this work, aiming to fully exploit features of
annotated novel object and capture fine-grained features of query object, we
propose Dense Relation Distillation with Context-aware Aggregation (DCNet) to
tackle the few-shot detection problem. Built on the meta-learning based
framework, Dense Relation Distillation module targets at fully exploiting
support features, where support features and query feature are densely matched,
covering all spatial locations in a feed-forward fashion. The abundant usage of
the guidance information endows model the capability to handle common
challenges such as appearance changes and occlusions. Moreover, to better
capture scale-aware features, Context-aware Aggregation module adaptively
harnesses features from different scales for a more comprehensive feature
representation. Extensive experiments illustrate that our proposed approach
achieves state-of-the-art results on PASCAL VOC and MS COCO datasets. Code will
be made available at https://github.com/hzhupku/DCNet.
- Abstract(参考訳): オブジェクト検出のための従来のディープラーニングベースの手法は、トレーニングのための大量の境界ボックスアノテーションを必要とするため、そのような高品質な注釈付きデータを得るのにコストがかかる。
少数の注釈付き例で新しいクラスに適応することを学ぶ、少数ショットオブジェクト検出は、ノベルオブジェクトの細かな特徴をほんの数データだけで簡単に見過ごせるため、非常に難しい。
本研究は,注釈付き新規オブジェクトの特徴をフル活用し,クエリオブジェクトのきめ細かい特徴を捉えることを目的として,DCNet(Context-aware Aggregation)を用いたDense Relation Distillationを提案する。
メタラーニングベースのフレームワーク上に構築されたDense Relation Distillationモジュールは、サポート機能とクエリ機能が密にマッチし、フィードフォワード形式ですべての空間位置をカバーする、完全に活用するサポート機能をターゲットにしている。
ガイダンス情報の豊富な使用は、外観の変化や閉塞といった共通の課題を扱う能力をモデル化する。
さらに、スケール認識機能をよりよくキャプチャするために、コンテキスト認識アグリゲーションモジュールは、より包括的な機能表現のために、さまざまなスケールの機能を適応的に利用します。
実験の結果,提案手法はPASCAL VOCおよびMS COCOデータセットの最先端結果が得られることがわかった。
コードはhttps://github.com/hzhupku/dcnetで入手できる。
関連論文リスト
- Adaptive Guidance Learning for Camouflaged Object Detection [23.777432551429396]
本稿では,適応型誘導学習ネットワーク「textitAGLNet」を提案する。
広く使用されている3つのCODベンチマークデータセットの実験により,提案手法が大幅な性能向上を実現することが示された。
論文 参考訳(メタデータ) (2024-05-05T06:21:58Z) - Few-shot Oriented Object Detection with Memorable Contrastive Learning in Remote Sensing Images [11.217630579076237]
リモートセンシングの分野では、FSOD(Few-shot Object Detection)が注目されている。
本稿では,Few-shot Oriented Object Detection with Memorable Contrastive Learning (FOMC) という,リモートセンシングのための新しいFSOD法を提案する。
具体的には、従来の水平有界ボックスの代わりに指向的有界ボックスを用いて、任意指向の空中オブジェクトのより優れた特徴表現を学習する。
論文 参考訳(メタデータ) (2024-03-20T08:15:18Z) - Fine-Grained Prototypes Distillation for Few-Shot Object Detection [8.795211323408513]
Few-shot Object Detection (FSOD) は、新しい物体検出のためのジェネリック検出器を、少数の訓練例で拡張することを目的としている。
一般に、メタラーニングに基づく手法は、新しいサンプルをクラスプロトタイプにエンコードするために追加のサポートブランチを使用する。
より堅牢な新しいオブジェクト検出のために、特徴ある局所的コンテキストをキャプチャするためには、新しい方法が必要である。
論文 参考訳(メタデータ) (2024-01-15T12:12:48Z) - Incremental-DETR: Incremental Few-Shot Object Detection via
Self-Supervised Learning [60.64535309016623]
本稿では,DeTRオブジェクト検出器上での微調整および自己教師型学習によるインクリメンタル・デクリメンタル・デクリメンタル・デクリメンタル・オブジェクト検出を提案する。
まず,DeTRのクラス固有のコンポーネントを自己監督で微調整する。
さらに,DeTRのクラス固有のコンポーネントに知識蒸留を施した数発の微調整戦略を導入し,破滅的な忘れを伴わずに新しいクラスを検出するネットワークを奨励する。
論文 参考訳(メタデータ) (2022-05-09T05:08:08Z) - Discovery-and-Selection: Towards Optimal Multiple Instance Learning for
Weakly Supervised Object Detection [86.86602297364826]
複数インスタンス学習(DS-MIL)と融合した発見・選択手法を提案する。
我々の提案するDS-MILアプローチは,最先端の性能を報告しながら,ベースラインを一貫して改善することができる。
論文 参考訳(メタデータ) (2021-10-18T07:06:57Z) - Dynamic Relevance Learning for Few-Shot Object Detection [6.550840743803705]
動的グラフ畳み込みネットワーク(GCN)を構築するために,すべてのサポート画像とクエリ画像上の関心領域(RoI)の関係を利用した動的関連学習モデルを提案する。
提案モデルでは,より一般化された特徴の学習の有効性を示す総合的な性能が得られた。
論文 参考訳(メタデータ) (2021-08-04T18:29:42Z) - Meta Faster R-CNN: Towards Accurate Few-Shot Object Detection with
Attentive Feature Alignment [33.446875089255876]
Few-shot Object Detection (FSOD) は、少数の例でオブジェクトを検出することを目的としている。
本稿では,データ不足ベースクラスから学習したメタ知識を新しいクラスに転送することで,メタラーニングに基づくマイショットオブジェクト検出手法を提案する。
論文 参考訳(メタデータ) (2021-04-15T19:01:27Z) - Multi-scale Interactive Network for Salient Object Detection [91.43066633305662]
本稿では,隣接レベルからの機能を統合するためのアグリゲート・インタラクション・モジュールを提案する。
より効率的なマルチスケール機能を得るために、各デコーダユニットに自己相互作用モジュールを埋め込む。
5つのベンチマークデータセットによる実験結果から,提案手法は後処理を一切行わず,23の最先端手法に対して良好に動作することが示された。
論文 参考訳(メタデータ) (2020-07-17T15:41:37Z) - UniT: Unified Knowledge Transfer for Any-shot Object Detection and
Segmentation [52.487469544343305]
オブジェクト検出とセグメンテーションの方法は、トレーニングのための大規模インスタンスレベルのアノテーションに依存します。
本稿では,直感的かつ統一的な半教師付きモデルを提案する。
論文 参考訳(メタデータ) (2020-06-12T22:45:47Z) - One-Shot Object Detection without Fine-Tuning [62.39210447209698]
本稿では,第1ステージのMatching-FCOSネットワークと第2ステージのStructure-Aware Relation Moduleからなる2段階モデルを提案する。
また,検出性能を効果的に向上する新たなトレーニング戦略を提案する。
提案手法は,複数のデータセット上で一貫した最先端のワンショット性能を上回る。
論文 参考訳(メタデータ) (2020-05-08T01:59:23Z) - Incremental Object Detection via Meta-Learning [77.55310507917012]
本稿では,段階的タスク間の情報を最適に共有するように,モデル勾配を再形成するメタラーニング手法を提案する。
既存のメタ学習法と比較して,本手法はタスク非依存であり,オブジェクト検出のための高容量モデルに新たなクラスやスケールを段階的に追加することができる。
論文 参考訳(メタデータ) (2020-03-17T13:40:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。