論文の概要: Feature Aggregation Network for Building Extraction from High-resolution
Remote Sensing Images
- arxiv url: http://arxiv.org/abs/2309.06017v1
- Date: Tue, 12 Sep 2023 07:31:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-13 14:12:43.851319
- Title: Feature Aggregation Network for Building Extraction from High-resolution
Remote Sensing Images
- Title(参考訳): 高分解能リモートセンシング画像からの建物抽出のための特徴集約ネットワーク
- Authors: Xuan Zhou, Xuefeng Wei
- Abstract要約: 高解像度衛星リモートセンシングデータ取得は、表面構造的特徴の詳細な抽出の可能性を明らかにした。
現在の手法は、表面特徴の局所化情報にのみ焦点をあてている。
本稿では,グローバル機能とローカル機能の両方を抽出する機能集約ネットワーク(FANet)を提案する。
- 参考スコア(独自算出の注目度): 1.7623838912231695
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid advancement in high-resolution satellite remote sensing data
acquisition, particularly those achieving submeter precision, has uncovered the
potential for detailed extraction of surface architectural features. However,
the diversity and complexity of surface distributions frequently lead to
current methods focusing exclusively on localized information of surface
features. This often results in significant intraclass variability in boundary
recognition and between buildings. Therefore, the task of fine-grained
extraction of surface features from high-resolution satellite imagery has
emerged as a critical challenge in remote sensing image processing. In this
work, we propose the Feature Aggregation Network (FANet), concentrating on
extracting both global and local features, thereby enabling the refined
extraction of landmark buildings from high-resolution satellite remote sensing
imagery. The Pyramid Vision Transformer captures these global features, which
are subsequently refined by the Feature Aggregation Module and merged into a
cohesive representation by the Difference Elimination Module. In addition, to
ensure a comprehensive feature map, we have incorporated the Receptive Field
Block and Dual Attention Module, expanding the receptive field and intensifying
attention across spatial and channel dimensions. Extensive experiments on
multiple datasets have validated the outstanding capability of FANet in
extracting features from high-resolution satellite images. This signifies a
major breakthrough in the field of remote sensing image processing. We will
release our code soon.
- Abstract(参考訳): 高解像度衛星リモートセンシングデータ取得の急速な進歩、特にサブメータ精度の向上は、表面構造の特徴を詳細に抽出する可能性を見出している。
しかし、表面分布の多様性と複雑さは、表面特徴の局所化情報にのみ焦点を絞る現在の手法にしばしばつながる。
これはしばしば境界認識と建物間におけるクラス内変動をもたらす。
そのため,高解像度衛星画像から表面像を微細に抽出する作業は,リモートセンシング画像処理において重要な課題となっている。
本研究では,衛星リモートセンシング画像からのランドマークの抽出を可能にするため,地球的特徴と局所的特徴の抽出に重点を置いた特徴集約ネットワーク(fanet)を提案する。
ピラミッドビジョントランスフォーマーはこれらのグローバル機能をキャプチャし、その後特徴集約モジュールによって洗練され、差分除去モジュールによって凝集表現にマージされる。
さらに,包括的特徴マップを実現するために,受容的場ブロックと2重注意モジュールを導入し,受容的場を拡大し,空間的およびチャネル的次元にまたがって注意力を強めた。
複数のデータセットに対する大規模な実験は、高解像度衛星画像から特徴を抽出する際のFANetの際立った能力を検証する。
これはリモートセンシング画像処理の分野での大きなブレークスルーを意味する。
私たちはすぐにコードをリリースします。
関連論文リスト
- Remote Sensing Image Segmentation Using Vision Mamba and Multi-Scale Multi-Frequency Feature Fusion [9.098711843118629]
本稿では、状態空間モデル(SSM)を導入し、視覚マンバ(CVMH-UNet)に基づく新しいハイブリッドセマンティックセマンティックネットワークを提案する。
本手法は、クロス2Dスキャン(CS2D)を用いて、複数の方向からグローバル情報をフルにキャプチャする、クロス走査型視覚状態空間ブロック(CVSSBlock)を設計する。
ローカル情報取得におけるビジョン・マンバ(VMamba)の制約を克服するために畳み込みニューラルネットワークのブランチを組み込むことにより、このアプローチはグローバル機能とローカル機能の両方の包括的な分析を促進する。
論文 参考訳(メタデータ) (2024-10-08T02:17:38Z) - An Advanced Features Extraction Module for Remote Sensing Image Super-Resolution [0.5461938536945723]
チャネル・アンド・スペースアテンション特徴抽出(CSA-FE)と呼ばれる高度な特徴抽出モジュールを提案する。
提案手法は,高頻度情報を含む特定のチャネルや空間的位置に着目し,関連する特徴に焦点を合わせ,無関係な特徴を抑えるのに役立つ。
本モデルは,既存モデルと比較して優れた性能を示した。
論文 参考訳(メタデータ) (2024-05-07T18:15:51Z) - Spatial-frequency Dual-Domain Feature Fusion Network for Low-Light Remote Sensing Image Enhancement [49.15531684596958]
低照度リモートセンシング画像強調のためのDFFN(Dual-Domain Feature Fusion Network)を提案する。
第1フェーズは振幅情報を学習して画像輝度を復元し、第2フェーズは位相情報を学習して詳細を洗練させる。
我々は、現在の暗光リモートセンシング画像強調におけるデータセットの欠如に対応するために、2つの暗光リモートセンシングデータセットを構築した。
論文 参考訳(メタデータ) (2024-04-26T13:21:31Z) - RS-Mamba for Large Remote Sensing Image Dense Prediction [58.12667617617306]
本稿では,大規模なVHRリモートセンシング画像における高密度予測タスクに対するリモートセンシング・マンバ(RSM)を提案する。
RSMは、線形複雑度でリモートセンシング画像のグローバルなコンテキストを捉えるように設計されている。
我々のモデルは、大規模なリモートセンシング画像の変換器ベースモデルよりも効率と精度がよい。
論文 参考訳(メタデータ) (2024-04-03T12:06:01Z) - Super-Resolving Face Image by Facial Parsing Information [52.1267613768555]
顔超解像は、低解像度の顔画像を対応する高解像度の画像に変換する技術である。
我々は,低解像度の顔画像から先行する顔を抽出する,新しい解析マップ付き顔超解像ネットワークを構築した。
高解像度特徴はより正確な空間情報を含み、低解像度特徴は強い文脈情報を提供する。
論文 参考訳(メタデータ) (2023-04-06T08:19:03Z) - Learning Enriched Features for Fast Image Restoration and Enhancement [166.17296369600774]
本稿では,ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とする。
我々は、高解像度の空間的詳細を同時に保存しながら、複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
提案手法は,デフォーカス・デブロアリング,画像デノイング,超解像,画像強調など,さまざまな画像処理タスクに対して,最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2022-04-19T17:59:45Z) - RRNet: Relational Reasoning Network with Parallel Multi-scale Attention
for Salient Object Detection in Optical Remote Sensing Images [82.1679766706423]
光リモートセンシング画像(RSI)のためのSODは、光学RSIから視覚的に特徴的な物体や領域を探索・抽出することを目的としている。
光学RSIにおけるSODに並列なマルチスケールアテンションを持つリレーショナル推論ネットワークを提案する。
提案するRRNetは,既存の最先端SODコンペティタよりも質的,定量的に優れている。
論文 参考訳(メタデータ) (2021-10-27T07:18:32Z) - Dense Multiscale Feature Fusion Pyramid Networks for Object Detection in
UAV-Captured Images [0.09065034043031667]
本研究では,よりリッチな特徴を可能な限り得ることを目的とした,高密度多スケール特徴融合ピラミッドネットワーク(dmffpn)と呼ばれる新しい手法を提案する。
具体的には、密度の高い接続は、異なる畳み込み層からの表現を完全に活用するように設計されている。
VisDrone-DETと呼ばれるドローンベースのデータセットの実験は、我々の方法の競争力を示唆している。
論文 参考訳(メタデータ) (2020-12-19T10:05:31Z) - Multi-image Super Resolution of Remotely Sensed Images using Residual
Feature Attention Deep Neural Networks [1.3764085113103222]
本研究は,マルチイメージ超解像課題に効果的に取り組む新しい残像注意モデル(RAMS)を提案する。
本研究では,3次元畳み込みによる視覚特徴の注意機構を導入し,意識的なデータ融合と情報抽出を実現する。
我々の表現学習ネットワークは、冗長な低周波信号を流すためにネストした残差接続を広範囲に利用している。
論文 参考訳(メタデータ) (2020-07-06T22:54:02Z) - Boundary Regularized Building Footprint Extraction From Satellite Images
Using Deep Neural Network [6.371173732947292]
本稿では,1つの衛星画像から構築事例を共同で検出し,ノイズの多い建物の境界形状を規則化する,新しいディープニューラルネットワークを提案する。
本モデルでは,オブジェクトの局所化,認識,セマンティックラベリング,幾何学的形状抽出を同時に行うことができる。
論文 参考訳(メタデータ) (2020-06-23T17:24:09Z) - Learning Enriched Features for Real Image Restoration and Enhancement [166.17296369600774]
畳み込みニューラルネットワーク(CNN)は、画像復元作業における従来のアプローチよりも劇的に改善されている。
ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とした,新しいアーキテクチャを提案する。
提案手法は,高解像度の空間的詳細を同時に保存しながら,複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
論文 参考訳(メタデータ) (2020-03-15T11:04:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。