論文の概要: Align Deep Features for Oriented Object Detection
- arxiv url: http://arxiv.org/abs/2008.09397v3
- Date: Mon, 12 Jul 2021 03:26:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 21:46:13.391411
- Title: Align Deep Features for Oriented Object Detection
- Title(参考訳): オブジェクト指向オブジェクト検出のための深い特徴の調整
- Authors: Jiaming Han, Jian Ding, Jie Li, Gui-Song Xia
- Abstract要約: 本稿では、FAM(Feature Alignment Module)とODM(Oriented Detection Module)の2つのモジュールからなる単発アライメントネットワーク(S$2$A-Net)を提案する。
FAMは、アンカー・リファインメント・ネットワークで高品質なアンカーを生成し、アンカーボックスに応じた畳み込み特徴と、新しいアライメント・コンボリューション・コンボリューションとを適応的に調整することができる。
ODMは、まず、向き情報を符号化するためにアクティブな回転フィルタを採用し、次に、分類スコアとローカライゼーション精度の不整合を軽減するために、向きに敏感で方向不変な特徴を生成する。
- 参考スコア(独自算出の注目度): 40.28244152216309
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The past decade has witnessed significant progress on detecting objects in
aerial images that are often distributed with large scale variations and
arbitrary orientations. However most of existing methods rely on heuristically
defined anchors with different scales, angles and aspect ratios and usually
suffer from severe misalignment between anchor boxes and axis-aligned
convolutional features, which leads to the common inconsistency between the
classification score and localization accuracy. To address this issue, we
propose a Single-shot Alignment Network (S$^2$A-Net) consisting of two modules:
a Feature Alignment Module (FAM) and an Oriented Detection Module (ODM). The
FAM can generate high-quality anchors with an Anchor Refinement Network and
adaptively align the convolutional features according to the anchor boxes with
a novel Alignment Convolution. The ODM first adopts active rotating filters to
encode the orientation information and then produces orientation-sensitive and
orientation-invariant features to alleviate the inconsistency between
classification score and localization accuracy. Besides, we further explore the
approach to detect objects in large-size images, which leads to a better
trade-off between speed and accuracy. Extensive experiments demonstrate that
our method can achieve state-of-the-art performance on two commonly used aerial
objects datasets (i.e., DOTA and HRSC2016) while keeping high efficiency. The
code is available at https://github.com/csuhan/s2anet.
- Abstract(参考訳): 過去10年間、大規模な変動と任意の方向でしばしば分布する空中画像における物体の検出に顕著な進歩が見られた。
しかし、既存の手法の多くは、異なるスケール、角度、アスペクト比のヒューリスティックに定義されたアンカーに依存しており、通常、アンカーボックスと軸方向の畳み込み特徴との間の深刻な不整合に悩まされ、分類スコアとローカライゼーション精度の共通不整合につながる。
本稿では,FAM(Feature Alignment Module)とODM(Oriented Detection Module)の2つのモジュールからなる単発アライメントネットワーク(S$^2$A-Net)を提案する。
famは、アンカーリファインメントネットワークを備えた高品質アンカーを生成し、新しいアライメント畳み込みによりアンカーボックスに従って畳み込み特徴を適応的に調整することができる。
odmはまず、方向情報をエンコードするためにアクティブな回転フィルタを採用し、その後、分類スコアと局在精度の間の不一致を軽減するために、向きに敏感で方向不変な特徴を生成する。
さらに,大規模画像中の物体を検出するアプローチをさらに探究し,速度と精度のトレードオフを改善する。
広汎な実験により,本手法は高効率を保ちながら,よく用いられる2つの空中オブジェクトデータセット(DOTA,HRSC2016)の最先端性能を達成できることが実証された。
コードはhttps://github.com/csuhan/s2anetで入手できる。
関連論文リスト
- OrientedFormer: An End-to-End Transformer-Based Oriented Object Detector in Remote Sensing Images [26.37802649901314]
リモートセンシング画像におけるオブジェクト指向物体検出は、複数方向のオブジェクトが分散しているため、難しい課題である。
これらの問題に対処する3つの専用モジュールからなるエンドツーエンドのトランスフォーマベース指向オブジェクト検出器を提案する。
従来のエンドツーエンド検出器と比較して、OrientedFormerはDIOR-RとDOTA-v1.0でそれぞれ1.16および1.21 AP$_50$を獲得し、トレーニングエポックを3$times$から1$times$に下げる。
論文 参考訳(メタデータ) (2024-09-29T10:36:33Z) - SOOD: Towards Semi-Supervised Oriented Object Detection [57.05141794402972]
本稿では, 主流の擬似ラベリングフレームワーク上に構築された, SOOD と呼ばれる, 半教師付きオブジェクト指向物体検出モデルを提案する。
提案した2つの損失をトレーニングした場合,SOODはDOTA-v1.5ベンチマークの様々な設定下で,最先端のSSOD法を超越することを示した。
論文 参考訳(メタデータ) (2023-04-10T11:10:42Z) - Adaptive Spot-Guided Transformer for Consistent Local Feature Matching [64.30749838423922]
局所的特徴マッチングのための適応スポットガイド変換器(ASTR)を提案する。
ASTRは、統一された粗いアーキテクチャにおける局所的な一貫性とスケールのバリエーションをモデル化する。
論文 参考訳(メタデータ) (2023-03-29T12:28:01Z) - Adaptive Rotated Convolution for Rotated Object Detection [96.94590550217718]
本稿では、回転物体検出問題に対処するために、適応回転変換(ARC)モジュールを提案する。
ARCモジュールでは、コンボリューションカーネルが適応的に回転し、異なる画像に異なる向きのオブジェクト特徴を抽出する。
提案手法は,81.77%mAPのDOTAデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2023-03-14T11:53:12Z) - CFC-Net: A Critical Feature Capturing Network for Arbitrary-Oriented
Object Detection in Remote Sensing Images [0.9462808515258465]
本稿では,物体検出における識別的特徴の役割について論じる。
次に,検出精度を向上させるために,cfc-net (critical feature capture network) を提案する。
本手法は多くの最先端手法と比較して優れた検出性能が得られることを示す。
論文 参考訳(メタデータ) (2021-01-18T02:31:09Z) - Dynamic Anchor Learning for Arbitrary-Oriented Object Detection [4.247967690041766]
任意指向オブジェクトは、自然のシーン、空中写真、リモートセンシング画像などに広く現れる。
現在の回転検出器は、異なる向きのアンカーをたくさん使用して、地上の真実ボックスとの空間アライメントを実現します。
新たに定義されたマッチング度を利用した動的アンカー学習(DAL)法を提案する。
論文 参考訳(メタデータ) (2020-12-08T01:30:06Z) - Dense Label Encoding for Boundary Discontinuity Free Rotation Detection [69.75559390700887]
本稿では,分類に基づく比較的研究の少ない方法論について検討する。
我々は2つの側面でフロンティアを推し進めるための新しい手法を提案する。
航空画像のための大規模公開データセットの実験と視覚解析は,我々のアプローチの有効性を示している。
論文 参考訳(メタデータ) (2020-11-19T05:42:02Z) - Scope Head for Accurate Localization in Object Detection [135.9979405835606]
本研究では,各位置のアンカーを相互依存関係としてモデル化したScopeNetと呼ばれる新しい検出器を提案する。
我々の簡潔で効果的な設計により、提案したScopeNetはCOCOの最先端の成果を達成する。
論文 参考訳(メタデータ) (2020-05-11T04:00:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。