論文の概要: Few-shot Object Detection with Self-adaptive Attention Network for
Remote Sensing Images
- arxiv url: http://arxiv.org/abs/2009.12596v1
- Date: Sat, 26 Sep 2020 13:44:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 09:04:05.069729
- Title: Few-shot Object Detection with Self-adaptive Attention Network for
Remote Sensing Images
- Title(参考訳): リモートセンシング画像のための自己適応型アテンションネットワークによるオブジェクト検出
- Authors: Zixuan Xiao, Wei Xue, and Ping Zhong
- Abstract要約: 本報告では, ごく一部の例で提供される新しい物体を検出するために設計された, 数発の物体検出器を提案する。
対象物検出設定に適合するため,本提案では,全画像ではなく対象物レベルの関係に焦点を合わせている。
本実験は, 撮影シーンにおける提案手法の有効性を実証するものである。
- 参考スコア(独自算出の注目度): 11.938537194408669
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In remote sensing field, there are many applications of object detection in
recent years, which demands a great number of labeled data. However, we may be
faced with some cases where only limited data are available. In this paper, we
proposed a few-shot object detector which is designed for detecting novel
objects provided with only a few examples. Particularly, in order to fit the
object detection settings, our proposed few-shot detector concentrates on the
relations that lie in the level of objects instead of the full image with the
assistance of Self-Adaptive Attention Network (SAAN). The SAAN can fully
leverage the object-level relations through a relation GRU unit and
simultaneously attach attention on object features in a self-adaptive way
according to the object-level relations to avoid some situations where the
additional attention is useless or even detrimental. Eventually, the detection
results are produced from the features that are added with attention and thus
are able to be detected simply. The experiments demonstrate the effectiveness
of the proposed method in few-shot scenes.
- Abstract(参考訳): 近年,リモートセンシングの分野では,大量のラベル付きデータを必要とするオブジェクト検出の応用が数多く行われている。
しかし、限られたデータしか利用できないケースもあるかもしれません。
本稿では, ごく少数の例で提供される新しい物体を検出するために設計された, 数発の物体検出器を提案する。
特に,対象物検出設定に適合させるために,提案する数発検出器は,自己適応注意ネットワーク(SAAN)の助けを借りて,全画像ではなく対象物レベルの関係に集中する。
SAANは、関係GRUユニットを介してオブジェクトレベルの関係を完全に活用でき、同時に、オブジェクトレベルの関係に従って自己適応的にオブジェクトの特徴に注意を向けることができ、追加の注意が役に立たない、あるいは有害な状況を回避することができる。
最終的に、検出結果は、注意して加えられた特徴から生成されるので、簡単に検出することができる。
実験により,提案手法の有効性が実証された。
関連論文リスト
- Object-Centric Multiple Object Tracking [124.30650395969126]
本稿では,多目的追跡パイプラインのためのビデオオブジェクト中心モデルを提案する。
オブジェクト中心のスロットを検出出力に適応するインデックスマージモジュールと、オブジェクトメモリモジュールで構成される。
オブジェクト中心学習に特化して、オブジェクトのローカライゼーションと機能バインディングのためのスパース検出ラベルしか必要としない。
論文 参考訳(メタデータ) (2023-09-01T03:34:12Z) - Incremental-DETR: Incremental Few-Shot Object Detection via
Self-Supervised Learning [60.64535309016623]
本稿では,DeTRオブジェクト検出器上での微調整および自己教師型学習によるインクリメンタル・デクリメンタル・デクリメンタル・デクリメンタル・オブジェクト検出を提案する。
まず,DeTRのクラス固有のコンポーネントを自己監督で微調整する。
さらに,DeTRのクラス固有のコンポーネントに知識蒸留を施した数発の微調整戦略を導入し,破滅的な忘れを伴わずに新しいクラスを検出するネットワークを奨励する。
論文 参考訳(メタデータ) (2022-05-09T05:08:08Z) - Focus-and-Detect: A Small Object Detection Framework for Aerial Images [1.911678487931003]
我々はFocus-and-Detectと呼ばれる2段階のオブジェクト検出フレームワークを提案する。
第1段階は、焦点領域を構成するオブジェクトのクラスタを生成する。
第2段階は対象検出器ネットワークであり、焦点領域内の物体を予測する。
提案した2段階のフレームワークは,VisDrone検証データセットのAPスコアが42.06であることを示す。
論文 参考訳(メタデータ) (2022-03-24T10:43:56Z) - A Survey of Self-Supervised and Few-Shot Object Detection [19.647681501581225]
自己教師付き手法は、オブジェクト検出などの下流タスクにうまく転送されるラベルのないデータから表現を学習することを目的としている。
ほとんどショットされていないオブジェクト検出は、ほとんどデータを持たない新しい(見えない)オブジェクトクラスのモデルをトレーニングすることです。
本調査では, 少数ショット・自己監督型物体検出における最新のアプローチを概観し, 特徴付けする。
論文 参考訳(メタデータ) (2021-10-27T18:55:47Z) - Exploiting Multi-Object Relationships for Detecting Adversarial Attacks
in Complex Scenes [51.65308857232767]
ディープニューラルネットワーク(DNN)をデプロイするビジョンシステムは、敵の例に弱いことが知られている。
近年の研究では、入力データの固有成分のチェックは、敵攻撃を検出するための有望な方法であることが示された。
言語モデルを用いてコンテキスト整合性チェックを行う新しい手法を開発した。
論文 参考訳(メタデータ) (2021-08-19T00:52:10Z) - AdaCon: Adaptive Context-Aware Object Detection for Resource-Constrained
Embedded Devices [2.5345835184316536]
畳み込みニューラルネットワークは、オブジェクト検出タスクにおいて最先端の精度を達成する。
リソース制約のあるエッジデバイスへの展開に挑戦する計算とエネルギーの要求が大きい。
本稿では,物体検出モデルの効率を高めるために,異なる対象カテゴリが共同で発生する確率に関する事前知識を活用する。
COCOデータセットを用いた実験の結果, 適応物体検出モデルでは, エネルギー消費量が最大45%減少し, 遅延が最大27%減少し, 物体検出の平均精度(AP)が低下することがわかった。
論文 参考訳(メタデータ) (2021-08-16T01:21:55Z) - One-Shot Object Affordance Detection in the Wild [76.46484684007706]
Affordance Detectionは、画像内のオブジェクトの潜在的なアクション可能性を特定することを指す。
我々は、人間の行動目的を推定し、それを転送して、すべての候補画像から共通価格を検出するワンショットアフォーダンス検出ネットワーク(OSAD-Net)を考案する。
複雑なシーンと豊富なアノテーションによって、当社のPADv2データセットは、アベイランス検出メソッドをベンチマークするためのテストベッドとして使用することができます。
論文 参考訳(メタデータ) (2021-08-08T14:53:10Z) - A Simple and Effective Use of Object-Centric Images for Long-Tailed
Object Detection [56.82077636126353]
シーン中心画像における物体検出を改善するために,物体中心画像を活用する。
私たちは、シンプルで驚くほど効果的なフレームワークを提示します。
我々の手法は、レアオブジェクトのオブジェクト検出(およびインスタンスセグメンテーション)の精度を相対的に50%(および33%)向上させることができる。
論文 参考訳(メタデータ) (2021-02-17T17:27:21Z) - Slender Object Detection: Diagnoses and Improvements [74.40792217534]
本稿では,超高アスペクト比,すなわちtextbfslender オブジェクトの特定タイプの検出について検討する。
古典的物体検出法では、細い物体に対してのみ評価される場合、COCO上の18.9%のmAPの劇的な低下が観察される。
論文 参考訳(メタデータ) (2020-11-17T09:39:42Z) - Few-shot Object Detection with Feature Attention Highlight Module in
Remote Sensing Images [10.92844145381214]
本報告では, ごく少数の例に基づいて, 新規な物体を検出するために設計された, 数発の物体検出器を提案する。
我々のモデルは、特徴抽出器、特徴強調強調モジュール、および2段階検出バックエンドで構成されている。
提案手法の有効性を示す実験を行った。
論文 参考訳(メタデータ) (2020-09-03T12:38:49Z) - Leveraging Bottom-Up and Top-Down Attention for Few-Shot Object
Detection [31.1548809359908]
オブジェクト検出は、アノテーションの少ない例でオブジェクトを検出することを目的としていない。
本稿では、トップダウンとボトムアップの両方の利点を生かした、注意深い複数ショットオブジェクト検出ネットワーク(AttFDNet)を提案する。
論文 参考訳(メタデータ) (2020-07-23T16:12:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。