論文の概要: CFC-Net: A Critical Feature Capturing Network for Arbitrary-Oriented
Object Detection in Remote Sensing Images
- arxiv url: http://arxiv.org/abs/2101.06849v1
- Date: Mon, 18 Jan 2021 02:31:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-27 05:57:49.531855
- Title: CFC-Net: A Critical Feature Capturing Network for Arbitrary-Oriented
Object Detection in Remote Sensing Images
- Title(参考訳): CFC-Net:リモートセンシング画像における任意指向物体検出のための重要な特徴キャプチャネットワーク
- Authors: Qi Ming, Lingjuan Miao, Zhiqiang Zhou, Yunpeng Dong
- Abstract要約: 本稿では,物体検出における識別的特徴の役割について論じる。
次に,検出精度を向上させるために,cfc-net (critical feature capture network) を提案する。
本手法は多くの最先端手法と比較して優れた検出性能が得られることを示す。
- 参考スコア(独自算出の注目度): 0.9462808515258465
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object detection in optical remote sensing images is an important and
challenging task. In recent years, the methods based on convolutional neural
networks have made good progress. However, due to the large variation in object
scale, aspect ratio, and arbitrary orientation, the detection performance is
difficult to be further improved. In this paper, we discuss the role of
discriminative features in object detection, and then propose a Critical
Feature Capturing Network (CFC-Net) to improve detection accuracy from three
aspects: building powerful feature representation, refining preset anchors, and
optimizing label assignment. Specifically, we first decouple the classification
and regression features, and then construct robust critical features adapted to
the respective tasks through the Polarization Attention Module (PAM). With the
extracted discriminative regression features, the Rotation Anchor Refinement
Module (R-ARM) performs localization refinement on preset horizontal anchors to
obtain superior rotation anchors. Next, the Dynamic Anchor Learning (DAL)
strategy is given to adaptively select high-quality anchors based on their
ability to capture critical features. The proposed framework creates more
powerful semantic representations for objects in remote sensing images and
achieves high-performance real-time object detection. Experimental results on
three remote sensing datasets including HRSC2016, DOTA, and UCAS-AOD show that
our method achieves superior detection performance compared with many
state-of-the-art approaches. Code and models are available at
https://github.com/ming71/CFC-Net.
- Abstract(参考訳): 光リモートセンシング画像における物体検出は重要かつ困難な課題である。
近年,畳み込みニューラルネットワークに基づく手法が進歩している。
しかし, 物体スケール, アスペクト比, 任意の方向のばらつきが大きいため, 検出性能がさらに向上することは困難である。
本稿では,物体検出における識別的特徴の役割について検討し,特徴表現の構築,事前設定アンカーの改良,ラベル割り当ての最適化という3つの側面から検出精度を向上させるために,cfc-net (critical feature capture network) を提案する。
具体的には、まず分類と回帰の特徴を分離し、次に分極注意モジュール(pam)を介して各タスクに適応したロバストな重要な特徴を構築する。
抽出した識別回帰特性により、R-ARM(Rotation Anchor Refinement Module)は、予め設定された水平アンカーの局所化処理を行い、より優れたローテーションアンカーを得る。
次に、ダイナミックアンカー学習(DAL)戦略により、重要な特徴を捉える能力に基づいて、高品質なアンカーを適応的に選択する。
提案フレームワークは、リモートセンシング画像におけるオブジェクトのより強力なセマンティック表現を生成し、高性能なリアルタイムオブジェクト検出を実現する。
HRSC2016, DOTA, UCAS-AODの3つのリモートセンシングデータセットによる実験結果から, 本手法は多くの最先端手法と比較して優れた検出性能を示すことが示された。
コードとモデルはhttps://github.com/ming71/cfc-netで入手できる。
関連論文リスト
- PointOBB: Learning Oriented Object Detection via Single Point
Supervision [55.88982271340328]
本稿では,オブジェクト指向物体検出のための最初の単一点ベース OBB 生成法である PointOBB を提案する。
PointOBBは、オリジナルビュー、リサイズビュー、ローテーション/フリップ(rot/flp)ビューの3つのユニークなビューの協調利用を通じて動作する。
DIOR-RとDOTA-v1.0データセットの実験結果は、PointOBBが有望な性能を達成することを示す。
論文 参考訳(メタデータ) (2023-11-23T15:51:50Z) - Innovative Horizons in Aerial Imagery: LSKNet Meets DiffusionDet for
Advanced Object Detection [55.2480439325792]
本稿では,LSKNetのバックボーンをDiffusionDetヘッドに統合したオブジェクト検出モデルの詳細な評価を行う。
提案手法は平均精度(MAP)を約45.7%向上させる。
この進歩は、提案された修正の有効性を強調し、航空画像解析の新しいベンチマークを設定する。
論文 参考訳(メタデータ) (2023-11-21T19:49:13Z) - Hi-ResNet: Edge Detail Enhancement for High-Resolution Remote Sensing Segmentation [10.919956120261539]
高分解能リモートセンシング(HRS)セマンティックセマンティクスは、高分解能カバレッジ領域からキーオブジェクトを抽出する。
HRS画像内の同じカテゴリのオブジェクトは、多様な地理的環境におけるスケールと形状の顕著な違いを示す。
効率的なネットワーク構造を持つ高分解能リモートセンシングネットワーク(Hi-ResNet)を提案する。
論文 参考訳(メタデータ) (2023-05-22T03:58:25Z) - Adaptive Rotated Convolution for Rotated Object Detection [96.94590550217718]
本稿では、回転物体検出問題に対処するために、適応回転変換(ARC)モジュールを提案する。
ARCモジュールでは、コンボリューションカーネルが適応的に回転し、異なる画像に異なる向きのオブジェクト特徴を抽出する。
提案手法は,81.77%mAPのDOTAデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2023-03-14T11:53:12Z) - Transformation-Invariant Network for Few-Shot Object Detection in Remote
Sensing Images [15.251042369061024]
FSOD(Few-shot Object Detection)は、トレーニングのために大量のラベル付きデータを頼りにしている。
リモートセンシング画像におけるオブジェクトのスケールと向きのバリエーションは、既存のFSOD法に重大な課題をもたらす。
特徴ピラミッドネットワークの統合と,クエリ機能向上のためのプロトタイプ機能の利用を提案する。
論文 参考訳(メタデータ) (2023-03-13T02:21:38Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - Learning to Aggregate Multi-Scale Context for Instance Segmentation in
Remote Sensing Images [28.560068780733342]
特徴抽出のプロセスを改善するために,新しいコンテキスト集約ネットワーク(CATNet)を提案する。
提案モデルは,高密度特徴ピラミッドネットワーク(DenseFPN),空間コンテキストピラミッド(SCP),階層的関心抽出器(HRoIE)の3つの軽量プラグアンドプレイモジュールを利用する。
論文 参考訳(メタデータ) (2021-11-22T08:55:25Z) - Adversarial Feature Augmentation and Normalization for Visual
Recognition [109.6834687220478]
最近のコンピュータビジョンの進歩は、分類モデルの一般化能力を改善するために、逆データ拡張を利用する。
本稿では,中間的特徴埋め込みにおける敵対的拡張を提唱する効率的かつ効率的な代替手法を提案する。
代表的なバックボーンネットワークを用いて,多様な視覚認識タスクにまたがる提案手法を検証する。
論文 参考訳(メタデータ) (2021-03-22T20:36:34Z) - Dense Label Encoding for Boundary Discontinuity Free Rotation Detection [69.75559390700887]
本稿では,分類に基づく比較的研究の少ない方法論について検討する。
我々は2つの側面でフロンティアを推し進めるための新しい手法を提案する。
航空画像のための大規模公開データセットの実験と視覚解析は,我々のアプローチの有効性を示している。
論文 参考訳(メタデータ) (2020-11-19T05:42:02Z) - Align Deep Features for Oriented Object Detection [40.28244152216309]
本稿では、FAM(Feature Alignment Module)とODM(Oriented Detection Module)の2つのモジュールからなる単発アライメントネットワーク(S$2$A-Net)を提案する。
FAMは、アンカー・リファインメント・ネットワークで高品質なアンカーを生成し、アンカーボックスに応じた畳み込み特徴と、新しいアライメント・コンボリューション・コンボリューションとを適応的に調整することができる。
ODMは、まず、向き情報を符号化するためにアクティブな回転フィルタを採用し、次に、分類スコアとローカライゼーション精度の不整合を軽減するために、向きに敏感で方向不変な特徴を生成する。
論文 参考訳(メタデータ) (2020-08-21T09:55:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。