論文の概要: Hierarchical Attention Network for Few-Shot Object Detection via
Meta-Contrastive Learning
- arxiv url: http://arxiv.org/abs/2208.07039v1
- Date: Mon, 15 Aug 2022 07:29:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-16 14:03:23.391377
- Title: Hierarchical Attention Network for Few-Shot Object Detection via
Meta-Contrastive Learning
- Title(参考訳): メタコントラスト学習によるマイトショット物体検出のための階層的アテンションネットワーク
- Authors: Dongwoo Park, Jongmin Lee
- Abstract要約: Few-shot Object Detection (FSOD) は、新しいカテゴリの画像のほとんどを分類し、検出することを目的としている。
本稿では,クエリとサポート画像を完全に活用するために,逐次的に大きな受容領域を持つ階層型アテンションネットワークを提案する。
我々の手法はデータセット上の1-30ショットのオブジェクト検出に2.3,1.0,1.3,3.4,2.4%のAP改善をもたらす。
- 参考スコア(独自算出の注目度): 4.952681349410351
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Few-shot object detection (FSOD) aims to classify and detect few images of
novel categories. Existing meta-learning methods insufficiently exploit
features between support and query images owing to structural limitations. We
propose a hierarchical attention network with sequentially large receptive
fields to fully exploit the query and support images. In addition,
meta-learning does not distinguish the categories well because it determines
whether the support and query images match. In other words, metric-based
learning for classification is ineffective because it does not work directly.
Thus, we propose a contrastive learning method called meta-contrastive
learning, which directly helps achieve the purpose of the meta-learning
strategy. Finally, we establish a new state-of-the-art network, by realizing
significant margins. Our method brings 2.3, 1.0, 1.3, 3.4 and 2.4\% AP
improvements for 1-30 shots object detection on COCO dataset. Our code is
available at: https://github.com/infinity7428/hANMCL
- Abstract(参考訳): Few-shot Object Detection (FSOD)は、新しいカテゴリの画像の分類と検出を目的としている。
既存のメタラーニング手法では、構造的制限のため、サポートとクエリイメージの間の機能を十分に活用できない。
画像の検索とサポートを完全に活用するために,連続的に大きな受容フィールドを持つ階層的注意ネットワークを提案する。
さらに、メタ学習は、サポートとクエリイメージが一致するかどうかを決定するため、カテゴリをよく区別しない。
言い換えれば、メートル法に基づく分類学習は直接動作しないため効果がない。
そこで本研究では,メタコントラスト学習(meta-contrastive learning)と呼ばれる,メタ学習戦略の目的を直接達成するためのコントラスト学習手法を提案する。
最後に、重要なマージンを実現することによって、新しい最先端ネットワークを確立する。
提案手法は,COCOデータセット上の1~30ショットのオブジェクト検出において,2.3,1.0,1.3,3.4,2.4\%のAP改善を実現する。
私たちのコードは、https://github.com/infinity7428/hANMCLで利用可能です。
関連論文リスト
- Class Anchor Margin Loss for Content-Based Image Retrieval [97.81742911657497]
距離学習パラダイムに該当する新しいレペラ・トラクタ損失を提案するが、ペアを生成する必要がなく、直接L2メトリックに最適化する。
CBIRタスクにおいて,畳み込みアーキテクチャと変圧器アーキテクチャの両方を用いて,少数ショットおよびフルセットトレーニングの文脈で提案した目的を評価する。
論文 参考訳(メタデータ) (2023-06-01T12:53:10Z) - Meta-DETR: Image-Level Few-Shot Detection with Inter-Class Correlation
Exploitation [100.87407396364137]
画像レベルの最小ショット検出装置であるMeta-DETRを設計し、(i)クラス間相関メタ学習戦略を新たに導入する。
複数の数ショットのオブジェクト検出ベンチマーク実験により、提案したMeta-DETRは最先端の手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2022-07-30T13:46:07Z) - Dynamic Relevance Learning for Few-Shot Object Detection [6.550840743803705]
動的グラフ畳み込みネットワーク(GCN)を構築するために,すべてのサポート画像とクエリ画像上の関心領域(RoI)の関係を利用した動的関連学習モデルを提案する。
提案モデルでは,より一般化された特徴の学習の有効性を示す総合的な性能が得られた。
論文 参考訳(メタデータ) (2021-08-04T18:29:42Z) - Meta-DETR: Few-Shot Object Detection via Unified Image-Level
Meta-Learning [39.50529982746885]
少数の注釈付き例だけで、新規な物体の検出を狙っている。
本稿では,新しいメタ検出器フレームワークであるMeta-DETRを提案する。
代わりに、オブジェクトローカリゼーションと画像レベルでの分類を統一的で補完的な方法でメタ学習します。
論文 参考訳(メタデータ) (2021-03-22T11:14:00Z) - DetCo: Unsupervised Contrastive Learning for Object Detection [64.22416613061888]
教師なしのコントラスト学習は,CNNを用いた画像表現学習において大きな成功を収めている。
我々は,グローバルイメージとローカルイメージパッチのコントラストをフルに検討する,DetCoという新しいコントラスト学習手法を提案する。
DetCoは1倍のスケジュールでMask RCNN-C4/FPN/RetinaNet上で1.6/1.2/1.0 APで教師付き手法を一貫して上回っている。
論文 参考訳(メタデータ) (2021-02-09T12:47:20Z) - Learning to Focus: Cascaded Feature Matching Network for Few-shot Image
Recognition [38.49419948988415]
ディープネットワークは、多数の画像でトレーニングすることで、カテゴリのオブジェクトを正確に認識することを学ぶことができる。
低ショット画像認識タスク(low-shot image recognition task)として知られるメタラーニングの課題は、1つのカテゴリの認識モデルを学ぶためにアノテーション付き画像しか利用できない場合に発生する。
この問題を解決するため,Cascaded Feature Matching Network (CFMN) と呼ばれる手法を提案する。
EmphminiImageNet と Omniglot の2つの標準データセットを用いた数ショット学習実験により,本手法の有効性が確認された。
論文 参考訳(メタデータ) (2021-01-13T11:37:28Z) - SCAN: Learning to Classify Images without Labels [73.69513783788622]
機能学習とクラスタリングを分離する2段階のアプローチを提唱する。
表現学習からの自己教師型タスクを用いて意味論的意味のある特徴を得る。
我々は、ImageNet上で有望な結果を得、低データ体制下では、いくつかの半教師付き学習方法より優れています。
論文 参考訳(メタデータ) (2020-05-25T18:12:33Z) - Rethinking Few-Shot Image Classification: a Good Embedding Is All You
Need? [72.00712736992618]
メタトレーニングセット上で教師付きあるいは自己教師型表現を学習する単純なベースラインが、最先端の数ショット学習方法より優れていることを示す。
追加の増量は自己蒸留によって達成できる。
我々は,この発見が,画像分類ベンチマークとメタ学習アルゴリズムの役割を再考する動機となっていると考えている。
論文 参考訳(メタデータ) (2020-03-25T17:58:42Z) - Meta-Baseline: Exploring Simple Meta-Learning for Few-Shot Learning [79.25478727351604]
評価基準に基づいて,分類済みモデル全体に対するメタラーニング(メタラーニング)を提案する。
我々は,この単純な手法が標準ベンチマークにおける最先端手法との競合性能を達成するのを観察する。
論文 参考訳(メタデータ) (2020-03-09T20:06:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。