論文の概要: SCANet: Split Coordinate Attention Network for Building Footprint Extraction
- arxiv url: http://arxiv.org/abs/2507.20809v1
- Date: Mon, 28 Jul 2025 13:21:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-29 16:23:58.132099
- Title: SCANet: Split Coordinate Attention Network for Building Footprint Extraction
- Title(参考訳): SCANet: 足跡抽出のための分割コーディネートアテンションネットワーク
- Authors: Chunshi Wang, Bin Zhao, Shuxue Ding,
- Abstract要約: 建築フットプリント抽出はリモートセンシング画像解析において極めて重要である。
本稿では,新しいプラグアンドプレイアテンションモジュールであるSplit Coordinate Attention (SCA)を紹介する。
SCAは2つの空間的範囲のプーリングカーネルを使用して空間的遠隔操作をキャプチャし、各チャネルをx面とy面に沿って戦略的に符号化し、各特徴群に対して分割操作を別々に行う。
- 参考スコア(独自算出の注目度): 7.6057981800052845
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Building footprint extraction holds immense significance in remote sensing image analysis and has great value in urban planning, land use, environmental protection and disaster assessment. Despite the progress made by conventional and deep learning approaches in this field, they continue to encounter significant challenges. This paper introduces a novel plug-and-play attention module, Split Coordinate Attention (SCA), which ingeniously captures spatially remote interactions by employing two spatial range of pooling kernels, strategically encoding each channel along x and y planes, and separately performs a series of split operations for each feature group, thus enabling more efficient semantic feature extraction. By inserting into a 2D CNN to form an effective SCANet, our SCANet outperforms recent SOTA methods on the public Wuhan University (WHU) Building Dataset and Massachusetts Building Dataset in terms of various metrics. Particularly SCANet achieves the best IoU, 91.61% and 75.49% for the two datasets. Our code is available at https://github.com/AiEson/SCANet
- Abstract(参考訳): 建築フットプリント抽出はリモートセンシング画像解析において極めて重要であり、都市計画、土地利用、環境保護、災害評価において非常に重要である。
この分野における従来の深層学習アプローチの進歩にもかかわらず、彼らは引き続き重大な課題に直面している。
本稿では,2つの空間的範囲のスプーリングカーネルを用いて,各チャネルをx面とy面に沿って戦略的に符号化し,各特徴群に対して分割操作を分離し,より効率的な意味的特徴抽出を可能にする,新しいプラグアンドプレイアテンションモジュールであるスプリット・コーディネート・アテンション(SCA)を提案する。
効果的なSCANetを形成するために2D CNNに挿入することで、SCANetは、公共の武漢大学(WHU)構築データセットとマサチューセッツ建築データセットにおける最近のSOTAメソッドを、様々なメトリクスで上回ります。
特にSCANetは2つのデータセットで最高のIoU、91.61%、75.49%を達成している。
私たちのコードはhttps://github.com/AiEson/SCANetで利用可能です。
関連論文リスト
- Active search and coverage using point-cloud reinforcement learning [50.741409008225766]
本稿では,目的探索とカバレッジのためのエンドツーエンドの深層強化学習ソリューションを提案する。
RLの深い階層的特徴学習は有効であり、FPS(Fastthest Point sample)を用いることで点数を削減できることを示す。
また、ポイントクラウドに対するマルチヘッドの注意がエージェントの学習を高速化する上で有効であるが、同じ結果に収束することを示す。
論文 参考訳(メタデータ) (2023-12-18T18:16:30Z) - VoxelKP: A Voxel-based Network Architecture for Human Keypoint
Estimation in LiDAR Data [53.638818890966036]
textitVoxelKPは、LiDARデータにおける人間のキーポイント推定に適した、完全にスパースなネットワークアーキテクチャである。
本研究では,人間の各インスタンス内のキーポイント間の空間的相関を学習するために,スパースボックスアテンションを導入する。
鳥の視線を符号化する2次元格子に3次元ボクセルを投影する際に, 絶対的な3次元座標を利用するために空間符号化を組み込んだ。
論文 参考訳(メタデータ) (2023-12-11T23:50:14Z) - MultiScale Probability Map guided Index Pooling with Attention-based
learning for Road and Building Segmentation [18.838213902873616]
MSSDMPA-Net(Multi-Scale Supervised Dilated Multiple-Path Attention Network)を提案する。
MSSDMPA-NetはDAMIP(Dynamic Attention Map Guided Index Pooling)とDAMSCA(Dynamic Attention Map Guided Spatial and Channel Attention)という2つの新しいモジュールを備えている。
論文 参考訳(メタデータ) (2023-02-18T19:57:25Z) - Navya3DSeg -- Navya 3D Semantic Segmentation Dataset & split generation
for autonomous vehicles [63.20765930558542]
3Dセマンティックデータは、障害物検出やエゴ-車両の局所化といった中核的な認識タスクに有用である。
そこで我々は,大規模生産段階の運用領域に対応する多様なラベル空間を持つ新しいデータセットであるNavala 3D(Navya3DSeg)を提案する。
ラベルのない23のラベル付きシーケンスと25の補足シーケンスが含まれており、ポイントクラウド上の自己教師付きおよび半教師付きセマンティックセマンティックセグメンテーションベンチマークを探索するために設計された。
論文 参考訳(メタデータ) (2023-02-16T13:41:19Z) - AASeg: Attention Aware Network for Real Time Semantic Segmentation [0.0]
リアルタイムセマンティックセグメンテーションのための新しいアテンション・アウェアネットワークであるAASegを提案する。
AASegは精度と効率のトレードオフを実現し、従来のリアルタイム手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-07-27T20:01:55Z) - An Attention-Fused Network for Semantic Segmentation of
Very-High-Resolution Remote Sensing Imagery [26.362854938949923]
注目融合ネットワーク(AFNet)という,新しい畳み込みニューラルネットワークアーキテクチャを提案する。
ISPRS Vaihingen 2DデータセットとISPRS Potsdam 2Dデータセットで、総精度91.7%、平均F1スコア90.96%の最先端のパフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-05-10T06:23:27Z) - Boundary-Aware Segmentation Network for Mobile and Web Applications [60.815545591314915]
境界認識ネットワーク(basnet)は、精度の高い画像分割のための予測再定義アーキテクチャとハイブリッド損失と統合されている。
basnetは単一のgpu上で70fps以上動作し、多くの潜在的なアプリケーションが利用できる。
BASNetをベースに、BASNetが「COPY」と「PASTING」現実世界のオブジェクトのための拡張現実であるAR COPY & PASTEと、オブジェクト背景の自動削除のためのWebベースのツールであるOBJECT CUTの2つの(近い)商用アプリケーションをさらに開発しました。
論文 参考訳(メタデータ) (2021-01-12T19:20:26Z) - Multi-scale Attention U-Net (MsAUNet): A Modified U-Net Architecture for
Scene Segmentation [1.713291434132985]
画像からコンテキスト情報を用いたシーンセグメンテーションのためのマルチスケールアテンションネットワークを提案する。
このネットワークは、局所的な特徴をグローバルな特徴にマップし、精度を向上し、識別画像領域を強調する。
我々はPascalVOC2012とADE20kという2つの標準データセットでモデルを評価した。
論文 参考訳(メタデータ) (2020-09-15T08:03:41Z) - Semantic Segmentation With Multi Scale Spatial Attention For Self
Driving Cars [2.7317088388886384]
本稿では,様々なスケールのマルチスケール特徴融合を用いた新しいニューラルネットワークを提案し,その精度と効率的なセマンティックイメージセグメンテーションを提案する。
我々は、ResNetベースの特徴抽出器、ダウンサンプリング部における拡張畳み込み層、アップサンプリング部におけるアトラス畳み込み層を使用し、コンキャット操作を用いてそれらをマージした。
より文脈的な情報をエンコードし、ネットワークの受容領域を強化するため、新しいアテンションモジュールが提案されている。
論文 参考訳(メタデータ) (2020-06-30T20:19:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。