論文の概要: Context-Enhanced Detector For Building Detection From Remote Sensing
Images
- arxiv url: http://arxiv.org/abs/2310.07638v1
- Date: Wed, 11 Oct 2023 16:33:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 22:01:58.522945
- Title: Context-Enhanced Detector For Building Detection From Remote Sensing
Images
- Title(参考訳): リモートセンシング画像からの建物検出のためのコンテキスト拡張検出器
- Authors: Ziyue Huang, Mingming Zhang, Qingjie Liu, Wei Wang, Zhe Dong, and
Yunhong Wang
- Abstract要約: コンテキスト強化検出器(CEDet)と呼ばれる新しい手法を提案する。
提案手法では,3段階のカスケード構造を用いてコンテキスト情報の抽出を強化し,建物検出精度を向上させる。
提案手法は,CNBuilding-9P,CNBuilding-23P,SpaceNetを含む3つのビルディング検出ベンチマークの最先端性能を実現する。
- 参考スコア(独自算出の注目度): 41.3238458718635
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The field of building detection from remote sensing images has made
significant progress, but faces challenges in achieving high-accuracy detection
due to the diversity in building appearances and the complexity of vast scenes.
To address these challenges, we propose a novel approach called
Context-Enhanced Detector (CEDet). Our approach utilizes a three-stage cascade
structure to enhance the extraction of contextual information and improve
building detection accuracy. Specifically, we introduce two modules: the
Semantic Guided Contextual Mining (SGCM) module, which aggregates multi-scale
contexts and incorporates an attention mechanism to capture long-range
interactions, and the Instance Context Mining Module (ICMM), which captures
instance-level relationship context by constructing a spatial relationship
graph and aggregating instance features. Additionally, we introduce a semantic
segmentation loss based on pseudo-masks to guide contextual information
extraction. Our method achieves state-of-the-art performance on three building
detection benchmarks, including CNBuilding-9P, CNBuilding-23P, and SpaceNet.
- Abstract(参考訳): リモートセンシング画像からの建物検出の分野は大きな進歩を遂げているが,ビルの外観の多様性や広大なシーンの複雑さにより,高精度な検出を実現する上での課題に直面している。
これらの課題に対処するために、コンテキスト拡張検出器(CEDet)と呼ばれる新しいアプローチを提案する。
本手法では,3段階カスケード構造を用いて文脈情報の抽出と建物検出精度の向上を行う。
具体的には,マルチスケールコンテキストを集約し,長距離インタラクションをキャプチャするアテンション機構を組み込んだsgcm(semantic guided context mining)モジュールと,空間関係グラフを構築してインスタンス特徴を集約することで,インスタンスレベルの関係コンテキストをキャプチャするicmm(インスタンスコンテキストマイニングモジュール)という2つのモジュールを導入する。
さらに,擬似マスクに基づく意味的セグメンテーションの損失を導入し,文脈情報抽出を誘導する。
提案手法は,CNBuilding-9P,CNBuilding-23P,SpaceNetを含む3つのビルディング検出ベンチマークの最先端性能を実現する。
関連論文リスト
- Spatial-Temporal Enhanced Transformer Towards Multi-Frame 3D Object
Detection [59.03596380773798]
我々は、DETRのようなパラダイムに基づいた、多フレーム3Dオブジェクト検出のための新しいエンドツーエンドフレームワークであるSTEMDを提案する。
具体的には、オブジェクト間の空間的相互作用と複雑な時間的依存をモデル化するために、空間的時間的グラフアテンションネットワークを導入する。
我々は,計算オーバーヘッドをわずかに加えるだけで,難解なシナリオに対処する手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-07-01T13:53:14Z) - Hierarchical Disentanglement-Alignment Network for Robust SAR Vehicle
Recognition [18.38295403066007]
HDANetは機能障害とアライメントを統合フレームワークに統合する。
提案手法は,MSTARデータセットにおいて,9つの動作条件にまたがる顕著なロバスト性を示す。
論文 参考訳(メタデータ) (2023-04-07T09:11:29Z) - FGAHOI: Fine-Grained Anchors for Human-Object Interaction Detection [4.534713782093219]
上記の問題を緩和するために、新しいエンドツーエンドトランスフォーマーベースフレームワーク(FGAHOI)を提案する。
FGAHOIは、マルチスケールサンプリング(MSS)、階層空間認識マージ(HSAM)、タスク認識マージ機構(TAM)の3つの専用コンポーネントから構成される。
論文 参考訳(メタデータ) (2023-01-08T03:53:50Z) - Part-guided Relational Transformers for Fine-grained Visual Recognition [59.20531172172135]
識別的特徴を学習し,特徴変換モジュールとの相関関係を探索するフレームワークを提案する。
提案手法は,3-of-the-levelオブジェクト認識において,部分ブランチの追加に頼らず,最先端の性能に達する。
論文 参考訳(メタデータ) (2022-12-28T03:45:56Z) - A Tri-Layer Plugin to Improve Occluded Detection [100.99802831241583]
本研究では,2段階物体検出装置の頭部検出のための単純な''モジュールを提案し,部分閉塞物体のリコールを改善する。
モジュールは、ターゲットオブジェクト、オクルーダー、オクラデーのセグメンテーションマスクの三層を予測し、それによってターゲットオブジェクトのマスクをより正確に予測することができる。
また,COCO評価データセットを構築し,部分閉塞オブジェクトと分離オブジェクトのリコール性能を測定した。
論文 参考訳(メタデータ) (2022-10-18T17:59:51Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - Learning to Aggregate Multi-Scale Context for Instance Segmentation in
Remote Sensing Images [28.560068780733342]
特徴抽出のプロセスを改善するために,新しいコンテキスト集約ネットワーク(CATNet)を提案する。
提案モデルは,高密度特徴ピラミッドネットワーク(DenseFPN),空間コンテキストピラミッド(SCP),階層的関心抽出器(HRoIE)の3つの軽量プラグアンドプレイモジュールを利用する。
論文 参考訳(メタデータ) (2021-11-22T08:55:25Z) - VIN: Voxel-based Implicit Network for Joint 3D Object Detection and
Segmentation for Lidars [12.343333815270402]
統合ニューラルネットワーク構造は、ジョイント3Dオブジェクト検出とポイントクラウドセグメンテーションのために提示される。
私たちは、検出ラベルとセグメンテーションラベルの両方からの豊富な監視を活用しています。
論文 参考訳(メタデータ) (2021-07-07T02:16:20Z) - DCANet: Dense Context-Aware Network for Semantic Segmentation [4.960604671885823]
ローカル詳細情報をグローバルな依存関係と適応的に統合する新しいモジュールであるContext-Aware (DCA) モジュールを提案する。
コンテキスト関係によって駆動されるDCAモジュールは、コンテキスト情報の集約により、より強力な機能を生成することができる。
3つの挑戦的なデータセットに関する広範な実験により、私たちのアプローチの有望なパフォーマンスを実証しています。
論文 参考訳(メタデータ) (2021-04-06T14:12:22Z) - PC-RGNN: Point Cloud Completion and Graph Neural Network for 3D Object
Detection [57.49788100647103]
LiDARベースの3Dオブジェクト検出は、自動運転にとって重要なタスクです。
現在のアプローチでは、遠方および閉ざされた物体の偏りと部分的な点雲に苦しむ。
本稿では,この課題を2つの解決法で解決する新しい二段階アプローチ,pc-rgnnを提案する。
論文 参考訳(メタデータ) (2020-12-18T18:06:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。