論文の概要: One-Shot Object Detection without Fine-Tuning
- arxiv url: http://arxiv.org/abs/2005.03819v1
- Date: Fri, 8 May 2020 01:59:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 12:59:50.145567
- Title: One-Shot Object Detection without Fine-Tuning
- Title(参考訳): 微調整のないワンショット物体検出
- Authors: Xiang Li, Lin Zhang, Yau Pun Chen, Yu-Wing Tai, Chi-Keung Tang
- Abstract要約: 本稿では,第1ステージのMatching-FCOSネットワークと第2ステージのStructure-Aware Relation Moduleからなる2段階モデルを提案する。
また,検出性能を効果的に向上する新たなトレーニング戦略を提案する。
提案手法は,複数のデータセット上で一貫した最先端のワンショット性能を上回る。
- 参考スコア(独自算出の注目度): 62.39210447209698
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning has revolutionized object detection thanks to large-scale
datasets, but their object categories are still arguably very limited. In this
paper, we attempt to enrich such categories by addressing the one-shot object
detection problem, where the number of annotated training examples for learning
an unseen class is limited to one. We introduce a two-stage model consisting of
a first stage Matching-FCOS network and a second stage Structure-Aware Relation
Module, the combination of which integrates metric learning with an anchor-free
Faster R-CNN-style detection pipeline, eventually eliminating the need to
fine-tune on the support images. We also propose novel training strategies that
effectively improve detection performance. Extensive quantitative and
qualitative evaluations were performed and our method exceeds the
state-of-the-art one-shot performance consistently on multiple datasets.
- Abstract(参考訳): ディープラーニングは大規模なデータセットのおかげでオブジェクト検出に革命をもたらしたが、オブジェクトのカテゴリは依然として非常に限られている。
本稿では,未確認クラスを学習するための注釈付きトレーニング例の数が1に限られている一発物体検出問題に対処して,そのようなカテゴリを充実させようとする。
本稿では,第1ステージのMatching-FCOSネットワークと第2ステージのStructure-Aware Relation Moduleを組み合わせた2段階モデルを提案する。
また,検出性能を効果的に向上する新たなトレーニング戦略を提案する。
大規模な定量的および定性的な評価を行い,本手法は複数のデータセット上で一貫した最先端のワンショット性能を上回った。
関連論文リスト
- Small Object Detection via Coarse-to-fine Proposal Generation and
Imitation Learning [52.06176253457522]
本稿では,粗粒度パイプラインと特徴模倣学習に基づく小型物体検出に適した2段階フレームワークを提案する。
CFINetは、大規模な小さなオブジェクト検出ベンチマークであるSODA-DとSODA-Aで最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-08-18T13:13:09Z) - Class Anchor Margin Loss for Content-Based Image Retrieval [97.81742911657497]
距離学習パラダイムに該当する新しいレペラ・トラクタ損失を提案するが、ペアを生成する必要がなく、直接L2メトリックに最適化する。
CBIRタスクにおいて,畳み込みアーキテクチャと変圧器アーキテクチャの両方を用いて,少数ショットおよびフルセットトレーニングの文脈で提案した目的を評価する。
論文 参考訳(メタデータ) (2023-06-01T12:53:10Z) - Meta-tuning Loss Functions and Data Augmentation for Few-shot Object
Detection [7.262048441360132]
少ないショットのオブジェクト検出は、少数ショットの学習とオブジェクト検出という領域において、新たなトピックである。
本稿では,数発検出を促進できる帰納的バイアスの学習を可能にする訓練手法を提案する。
提案手法は,高パラメトリックかつ複雑な数ショットメタモデルとは対照的に,解釈可能な損失関数を生成する。
論文 参考訳(メタデータ) (2023-04-24T15:14:16Z) - DcnnGrasp: Towards Accurate Grasp Pattern Recognition with Adaptive
Regularizer Learning [13.08779945306727]
現在の最先端手法は、パターン認識に不可欠なオブジェクトのカテゴリ情報を無視している。
本稿では,物体分類と把握パターン認識の連成学習を実現するために,二分岐畳み込みニューラルネットワーク(DcnnGrasp)を提案する。
論文 参考訳(メタデータ) (2022-05-11T00:34:27Z) - Incremental-DETR: Incremental Few-Shot Object Detection via
Self-Supervised Learning [60.64535309016623]
本稿では,DeTRオブジェクト検出器上での微調整および自己教師型学習によるインクリメンタル・デクリメンタル・デクリメンタル・デクリメンタル・オブジェクト検出を提案する。
まず,DeTRのクラス固有のコンポーネントを自己監督で微調整する。
さらに,DeTRのクラス固有のコンポーネントに知識蒸留を施した数発の微調整戦略を導入し,破滅的な忘れを伴わずに新しいクラスを検出するネットワークを奨励する。
論文 参考訳(メタデータ) (2022-05-09T05:08:08Z) - Activation to Saliency: Forming High-Quality Labels for Unsupervised
Salient Object Detection [54.92703325989853]
本稿では,高品質なサリエンシキューを効果的に生成する2段階アクティベーション・ツー・サリエンシ(A2S)フレームワークを提案する。
トレーニングプロセス全体において、私たちのフレームワークにヒューマンアノテーションは関与していません。
本フレームワークは,既存のUSOD法と比較して高い性能を示した。
論文 参考訳(メタデータ) (2021-12-07T11:54:06Z) - Experience feedback using Representation Learning for Few-Shot Object
Detection on Aerial Images [2.8560476609689185]
大規模なリモートセンシング画像データセットであるDOTAを用いて,本手法の性能評価を行った。
特に、数発のオブジェクト検出タスクの固有の弱点を強調します。
論文 参考訳(メタデータ) (2021-09-27T13:04:53Z) - Dynamic Relevance Learning for Few-Shot Object Detection [6.550840743803705]
動的グラフ畳み込みネットワーク(GCN)を構築するために,すべてのサポート画像とクエリ画像上の関心領域(RoI)の関係を利用した動的関連学習モデルを提案する。
提案モデルでは,より一般化された特徴の学習の有効性を示す総合的な性能が得られた。
論文 参考訳(メタデータ) (2021-08-04T18:29:42Z) - Few-shot Action Recognition with Prototype-centered Attentive Learning [88.10852114988829]
2つの新しい構成要素からなるプロトタイプ中心型注意学習(pal)モデル。
まず,従来のクエリ中心学習目標を補完するために,プロトタイプ中心のコントラスト学習損失を導入する。
第二に、PALは注意深いハイブリッド学習機構を統合しており、アウトレーヤの負の影響を最小限に抑えることができる。
論文 参考訳(メタデータ) (2021-01-20T11:48:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。