論文の概要: Locality-Aware Rotated Ship Detection in High-Resolution Remote Sensing
Imagery Based on Multi-Scale Convolutional Network
- arxiv url: http://arxiv.org/abs/2007.12326v1
- Date: Fri, 24 Jul 2020 03:01:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 06:50:48.252636
- Title: Locality-Aware Rotated Ship Detection in High-Resolution Remote Sensing
Imagery Based on Multi-Scale Convolutional Network
- Title(参考訳): マルチスケール畳み込みネットワークを用いた高解像度リモートセンシング画像における局所性を考慮した船舶回転検出
- Authors: Lingyi Liu, Yunpeng Bai, and Ying Li
- Abstract要約: マルチスケール畳み込みニューラルネットワーク(CNN)に基づく局所性認識型回転船検出(LARSD)フレームワークを提案する。
提案フレームワークはUNetのようなマルチスケールCNNを用いて高解像度の情報を持つマルチスケール特徴マップを生成する。
検出データセットを拡大するために、新しい高解像度船舶検出(HRSD)データセットを構築し、2499の画像と9269のインスタンスを異なる解像度でGoogle Earthから収集した。
- 参考スコア(独自算出の注目度): 7.984128966509492
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ship detection has been an active and vital topic in the field of remote
sensing for a decade, but it is still a challenging problem due to the large
scale variations, the high aspect ratios, the intensive arrangement, and the
background clutter disturbance. In this letter, we propose a locality-aware
rotated ship detection (LARSD) framework based on a multi-scale convolutional
neural network (CNN) to tackle these issues. The proposed framework applies a
UNet-like multi-scale CNN to generate multi-scale feature maps with high-level
semantic information in high resolution. Then, a rotated anchor-based
regression is applied for directly predicting the probability, the edge
distances, and the angle of ships. Finally, a locality-aware score alignment is
proposed to fix the mismatch between classification results and location
results caused by the independence of each subnet. Furthermore, to enlarge the
datasets of ship detection, we build a new high-resolution ship detection
(HRSD) dataset, where 2499 images and 9269 instances were collected from Google
Earth with different resolutions. Experiments based on public dataset HRSC2016
and our HRSD dataset demonstrate that our detection method achieves
state-of-the-art performance.
- Abstract(参考訳): 船舶検出は10年間,リモートセンシング分野において活発かつ重要な課題であったが,大規模な変動,高アスペクト比,集中配置,背景乱れなど,依然として困難な課題である。
本稿では,これらの問題に対処するために,マルチスケール畳み込みニューラルネットワーク(CNN)に基づく局所性認識型回転船検出(LARSD)フレームワークを提案する。
提案フレームワークはUNetのようなマルチスケールCNNを用いて高解像度のセマンティック情報を持つマルチスケール特徴マップを生成する。
次に、回転アンカーに基づく回帰を行い、船舶の確率、エッジ距離、角度を直接予測する。
最後に,各サブネットの独立性に起因する分類結果と位置結果のミスマッチを解消するために,局所性認識スコアアライメントを提案する。
さらに、船舶検出のデータセットを拡大するために、新しい高解像度船舶検出(HRSD)データセットを構築し、2499の画像と9269のインスタンスを異なる解像度でGoogle Earthから収集した。
公開データセットHRSC2016とHRSDデータセットに基づく実験により,我々の検出手法が最先端の性能を達成することを示す。
関連論文リスト
- Renormalized Connection for Scale-preferred Object Detection in Satellite Imagery [51.83786195178233]
我々は、効率的な特徴抽出の観点から再正規化群理論を実装するために、知識発見ネットワーク(KDN)を設計する。
KDN上の再正規化接続(RC)は、マルチスケール特徴の「相乗的焦点」を可能にする。
RCはFPNベースの検出器のマルチレベル特徴の分割・対数機構を幅広いスケールで予測されたタスクに拡張する。
論文 参考訳(メタデータ) (2024-09-09T13:56:22Z) - PGNeXt: High-Resolution Salient Object Detection via Pyramid Grafting Network [24.54269823691119]
本稿では、データセットとネットワークフレームワークの両方の観点から、より難解な高分解能サルエントオブジェクト検出(HRSOD)について述べる。
HRSODデータセットの欠如を補うため、UHRSDと呼ばれる大規模高解像度の高分解能物体検出データセットを慎重に収集した。
すべての画像はピクセルレベルで微妙にアノテートされ、以前の低解像度のSODデータセットをはるかに上回っている。
論文 参考訳(メタデータ) (2024-08-02T09:31:21Z) - DiAD: A Diffusion-based Framework for Multi-class Anomaly Detection [55.48770333927732]
本稿では,拡散型異常検出(Difusion-based Anomaly Detection, DAD)フレームワークを提案する。
画素空間オートエンコーダ、安定拡散の復調ネットワークに接続する潜在空間セマンティックガイド(SG)ネットワーク、特徴空間事前学習機能抽出器から構成される。
MVTec-ADとVisAデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-12-11T18:38:28Z) - Learning to Holistically Detect Bridges from Large-Size VHR Remote
Sensing Imagery [40.001753733290464]
大規模超高分解能(VHR)RSIにおける全体的橋梁検出は不可欠である。
大規模なVHR RSIを備えたデータセットの欠如は、ブリッジ検出におけるディープラーニングアルゴリズムのパフォーマンスを制限している。
本稿では,多様な地理的位置から採取した6,000VHR RSIからなるGLH-Bridgeという大規模データセットを提案する。
論文 参考訳(メタデータ) (2023-12-05T04:15:22Z) - Pyramid Grafting Network for One-Stage High Resolution Saliency
Detection [29.013012579688347]
我々は、異なる解像度画像から特徴を独立して抽出する、Praamid Grafting Network (PGNet) と呼ばれるワンステージフレームワークを提案する。
CNNブランチが壊れた詳細情報をよりホモロジーに組み合わせられるように、アテンションベースのクロスモデルグラフティングモジュール (CMGM) が提案されている。
我々は,4K-8K解像度で5,920個の画像を含む超高分解能塩度検出データセットUHRSDを新たに提供した。
論文 参考訳(メタデータ) (2022-04-11T12:22:21Z) - LocalTrans: A Multiscale Local Transformer Network for Cross-Resolution
Homography Estimation [52.63874513999119]
クロスレゾリューション画像アライメントは、マルチスケールギガ撮影において重要な問題である。
既存のディープ・ホモグラフィー手法は、それらの間の対応の明示的な定式化を無視し、クロスレゾリューションの課題において精度が低下する。
本稿では,マルチモーダル入力間の対応性を明確に学習するために,マルチスケール構造内に埋め込まれたローカルトランスフォーマーネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-08T02:51:45Z) - MRDet: A Multi-Head Network for Accurate Oriented Object Detection in
Aerial Images [51.227489316673484]
水平アンカーから変換された指向性提案を生成するために、任意指向領域提案ネットワーク(AO-RPN)を提案する。
正確なバウンディングボックスを得るために,検出タスクを複数のサブタスクに分離し,マルチヘッドネットワークを提案する。
各ヘッドは、対応するタスクに最適な特徴を学習するために特別に設計されており、ネットワークがオブジェクトを正確に検出することができる。
論文 参考訳(メタデータ) (2020-12-24T06:36:48Z) - Dense Label Encoding for Boundary Discontinuity Free Rotation Detection [69.75559390700887]
本稿では,分類に基づく比較的研究の少ない方法論について検討する。
我々は2つの側面でフロンティアを推し進めるための新しい手法を提案する。
航空画像のための大規模公開データセットの実験と視覚解析は,我々のアプローチの有効性を示している。
論文 参考訳(メタデータ) (2020-11-19T05:42:02Z) - LR-CNN: Local-aware Region CNN for Vehicle Detection in Aerial Imagery [43.91170581467171]
最先端の物体検出手法は、大規模な空中画像において、任意の向きの密集した小さなターゲットを検出するのに困難である。
本稿では,航空画像における車両検出のための新しい2段階アプローチとして,地域認識型地域畳み込みニューラルネットワーク(LR-CNN)を提案する。
論文 参考訳(メタデータ) (2020-05-28T19:57:34Z) - SCRDet++: Detecting Small, Cluttered and Rotated Objects via
Instance-Level Feature Denoising and Rotation Loss Smoothing [131.04304632759033]
小さくて散らばった物体は実世界では一般的であり、検出は困難である。
本稿では,まず,物体検出にデノナイズするアイデアを革新的に紹介する。
機能マップ上のインスタンスレベルの記述は、小さくて散らばったオブジェクトの検出を強化するために行われる。
論文 参考訳(メタデータ) (2020-04-28T06:03:54Z) - A Novel CNN-based Method for Accurate Ship Detection in HR Optical
Remote Sensing Images via Rotated Bounding Box [10.689750889854269]
船舶検出における現在のCNN法に共通する欠点を克服し, 新たなCNNに基づく船舶検出手法を提案する。
配向と他の変数を独立に予測できるが、より効果的に、新しい二分岐回帰ネットワークで予測できる。
船体検出において提案手法が優れていることを示す実験結果が得られた。
論文 参考訳(メタデータ) (2020-04-15T14:48:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。