論文の概要: Meta-DETR: Image-Level Few-Shot Detection with Inter-Class Correlation
Exploitation
- arxiv url: http://arxiv.org/abs/2208.00219v1
- Date: Sat, 30 Jul 2022 13:46:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-02 12:49:13.985878
- Title: Meta-DETR: Image-Level Few-Shot Detection with Inter-Class Correlation
Exploitation
- Title(参考訳): Meta-DETR:クラス間相関爆発による画像レベルFew-Shot検出
- Authors: Gongjie Zhang, Zhipeng Luo, Kaiwen Cui, Shijian Lu, Eric P. Xing
- Abstract要約: 画像レベルの最小ショット検出装置であるMeta-DETRを設計し、(i)クラス間相関メタ学習戦略を新たに導入する。
複数の数ショットのオブジェクト検出ベンチマーク実験により、提案したMeta-DETRは最先端の手法よりも大きなマージンで優れていることが示された。
- 参考スコア(独自算出の注目度): 100.87407396364137
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Few-shot object detection has been extensively investigated by incorporating
meta-learning into region-based detection frameworks. Despite its success, the
said paradigm is still constrained by several factors, such as (i) low-quality
region proposals for novel classes and (ii) negligence of the inter-class
correlation among different classes. Such limitations hinder the generalization
of base-class knowledge for the detection of novel-class objects. In this work,
we design Meta-DETR, which (i) is the first image-level few-shot detector, and
(ii) introduces a novel inter-class correlational meta-learning strategy to
capture and leverage the correlation among different classes for robust and
accurate few-shot object detection. Meta-DETR works entirely at image level
without any region proposals, which circumvents the constraint of inaccurate
proposals in prevalent few-shot detection frameworks. In addition, the
introduced correlational meta-learning enables Meta-DETR to simultaneously
attend to multiple support classes within a single feedforward, which allows to
capture the inter-class correlation among different classes, thus significantly
reducing the misclassification over similar classes and enhancing knowledge
generalization to novel classes. Experiments over multiple few-shot object
detection benchmarks show that the proposed Meta-DETR outperforms
state-of-the-art methods by large margins. The implementation codes are
available at https://github.com/ZhangGongjie/Meta-DETR.
- Abstract(参考訳): メタラーニングを領域ベース検出フレームワークに組み込むことにより,オブジェクト検出の方法が広く研究されている。
その成功にもかかわらず、そのパラダイムは今でもいくつかの要因によって制約されている。
(i)新規授業のための低品質地域提案及び
(II)異なるクラス間のクラス間相関の無視。
このような制限は、新しいクラスオブジェクトを検出するためのベースクラス知識の一般化を妨げる。
本研究ではメタDETRを設計する。
(i)は、最初の画像レベルの少数ショット検出器であり、
(ii)ロバストで高精度な少数ショット物体検出のための異なるクラス間の相関を捉えて活用するための新しいクラス間相関メタラーニング戦略を導入する。
meta-detrは完全に画像レベルで動作し、どの領域の提案も必要とせず、一般的な少数ショット検出フレームワークにおける不正確な提案の制約を回避する。
さらに,Meta-DETRでは,複数のサポートクラスをひとつのフィードフォワード内で同時に参加させることで,クラス間の相関関係を捉え,類似クラスに対する誤分類を著しく低減し,新しいクラスへの知識一般化を促進する。
複数の数ショットのオブジェクト検出ベンチマーク実験により、提案したMeta-DETRは最先端の手法よりも大きなマージンで優れていることが示された。
実装コードはhttps://github.com/ZhangGongjie/Meta-DETRで公開されている。
関連論文リスト
- Meta-tuning Loss Functions and Data Augmentation for Few-shot Object
Detection [7.262048441360132]
少ないショットのオブジェクト検出は、少数ショットの学習とオブジェクト検出という領域において、新たなトピックである。
本稿では,数発検出を促進できる帰納的バイアスの学習を可能にする訓練手法を提案する。
提案手法は,高パラメトリックかつ複雑な数ショットメタモデルとは対照的に,解釈可能な損失関数を生成する。
論文 参考訳(メタデータ) (2023-04-24T15:14:16Z) - Incremental-DETR: Incremental Few-Shot Object Detection via
Self-Supervised Learning [60.64535309016623]
本稿では,DeTRオブジェクト検出器上での微調整および自己教師型学習によるインクリメンタル・デクリメンタル・デクリメンタル・デクリメンタル・オブジェクト検出を提案する。
まず,DeTRのクラス固有のコンポーネントを自己監督で微調整する。
さらに,DeTRのクラス固有のコンポーネントに知識蒸留を施した数発の微調整戦略を導入し,破滅的な忘れを伴わずに新しいクラスを検出するネットワークを奨励する。
論文 参考訳(メタデータ) (2022-05-09T05:08:08Z) - Query Adaptive Few-Shot Object Detection with Heterogeneous Graph
Convolutional Networks [33.446875089255876]
Few-shot Object Detection (FSOD) は、いくつかの例を使って見えないオブジェクトを検出することを目的としている。
異種グラフ畳み込みネットワークを用いた新しいFSODモデルを提案する。
論文 参考訳(メタデータ) (2021-12-17T22:08:15Z) - Plug-and-Play Few-shot Object Detection with Meta Strategy and Explicit
Localization Inference [78.41932738265345]
本稿では, 微調整を行なわずに新しいカテゴリーの物体を正確に検出できるプラグ検出器を提案する。
局所化プロセスに2つの明示的な推論を導入し、アノテーション付きデータへの依存を減らす。
これは、様々な評価プロトコルの下で、効率、精度、リコールの両方において大きなリードを示している。
論文 参考訳(メタデータ) (2021-10-26T03:09:57Z) - Meta Faster R-CNN: Towards Accurate Few-Shot Object Detection with
Attentive Feature Alignment [33.446875089255876]
Few-shot Object Detection (FSOD) は、少数の例でオブジェクトを検出することを目的としている。
本稿では,データ不足ベースクラスから学習したメタ知識を新しいクラスに転送することで,メタラーニングに基づくマイショットオブジェクト検出手法を提案する。
論文 参考訳(メタデータ) (2021-04-15T19:01:27Z) - Meta-DETR: Few-Shot Object Detection via Unified Image-Level
Meta-Learning [39.50529982746885]
少数の注釈付き例だけで、新規な物体の検出を狙っている。
本稿では,新しいメタ検出器フレームワークであるMeta-DETRを提案する。
代わりに、オブジェクトローカリゼーションと画像レベルでの分類を統一的で補完的な方法でメタ学習します。
論文 参考訳(メタデータ) (2021-03-22T11:14:00Z) - Modulating Localization and Classification for Harmonized Object
Detection [40.82723262074911]
2つのタスクを変調する相互学習フレームワークを提案する。
特に,2つのタスクは,新たな相互ラベル付け戦略によって互いに学習することを余儀なくされる。
COCOデータセットのベースライン検出器に対する大幅なパフォーマンス向上を実現しました。
論文 参考訳(メタデータ) (2021-03-16T10:36:02Z) - BriNet: Towards Bridging the Intra-class and Inter-class Gaps in
One-Shot Segmentation [84.2925550033094]
ほとんどショットのセグメンテーションは、限られたトレーニングサンプルで見えないオブジェクトインスタンスをセグメンテーションするためのモデルの一般化に焦点を当てている。
本稿では,クエリの抽出した特徴とサポートイメージのギャップを埋めるフレームワーク BriNet を提案する。
本フレームワークの有効性は,他の競合手法よりも優れる実験結果によって実証された。
論文 参考訳(メタデータ) (2020-08-14T07:45:50Z) - One-Shot Object Detection without Fine-Tuning [62.39210447209698]
本稿では,第1ステージのMatching-FCOSネットワークと第2ステージのStructure-Aware Relation Moduleからなる2段階モデルを提案する。
また,検出性能を効果的に向上する新たなトレーニング戦略を提案する。
提案手法は,複数のデータセット上で一貫した最先端のワンショット性能を上回る。
論文 参考訳(メタデータ) (2020-05-08T01:59:23Z) - Frustratingly Simple Few-Shot Object Detection [98.42824677627581]
希少なクラスにおける既存検出器の最後の層のみを微調整することは、数発の物体検出タスクに不可欠である。
このような単純なアプローチは、現在のベンチマークで約220ポイントのメタ学習方法より優れている。
論文 参考訳(メタデータ) (2020-03-16T00:29:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。