論文の概要: SDRNET: Stacked Deep Residual Network for Accurate Semantic Segmentation of Fine-Resolution Remotely Sensed Images
- arxiv url: http://arxiv.org/abs/2506.21945v1
- Date: Fri, 27 Jun 2025 06:40:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-30 21:12:23.106915
- Title: SDRNET: Stacked Deep Residual Network for Accurate Semantic Segmentation of Fine-Resolution Remotely Sensed Images
- Title(参考訳): SDRNET:微細解像度リモートセンシング画像の正確なセマンティックセグメンテーションのためのスタック型残像ネットワーク
- Authors: Naftaly Wambugu, Ruisheng Wang, Bo Guo, Tianshu Yu, Sheng Xu, Mohammed Elhassan,
- Abstract要約: 高解像度リモートセンシング画像のセマンティックセグメンテーションから生成されたランドカバーマップは、ミューコンを描画した。
本稿では、FRRS画像からのセマンティックセグメンテーションのためのスタックドディープ残差ネットワーク(SDRNet)を提案する。
- 参考スコア(独自算出の注目度): 12.225954818454724
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Land cover maps generated from semantic segmentation of high-resolution remotely sensed images have drawn mucon in the photogrammetry and remote sensing research community. Currently, massive fine-resolution remotely sensed (FRRS) images acquired by improving sensing and imaging technologies become available. However, accurate semantic segmentation of such FRRS images is greatly affected by substantial class disparities, the invisibility of key ground objects due to occlusion, and object size variation. Despite the extraordinary potential in deep convolutional neural networks (DCNNs) in image feature learning and representation, extracting sufficient features from FRRS images for accurate semantic segmentation is still challenging. These challenges demand the deep learning models to learn robust features and generate sufficient feature descriptors. Specifically, learning multi-contextual features to guarantee adequate coverage of varied object sizes from the ground scene and harnessing global-local contexts to overcome class disparities challenge even profound networks. Deeper networks significantly lose spatial details due to gradual downsampling processes resulting in poor segmentation results and coarse boundaries. This article presents a stacked deep residual network (SDRNet) for semantic segmentation from FRRS images. The proposed framework utilizes two stacked encoder-decoder networks to harness long-range semantics yet preserve spatial information and dilated residual blocks (DRB) between each encoder and decoder network to capture sufficient global dependencies thus improving segmentation performance. Our experimental results obtained using the ISPRS Vaihingen and Potsdam datasets demonstrate that the SDRNet performs effectively and competitively against current DCNNs in semantic segmentation.
- Abstract(参考訳): 高解像度リモートセンシング画像のセマンティックセグメンテーションから生成されたランドカバーマップは、フォトグラムとリモートセンシング研究コミュニティでミューコンを描画している。
現在、センシング技術と撮像技術の改良によって取得された大規模な分解能リモートセンシング(FRRS)画像が利用可能である。
しかし、これらのFRRS画像の正確なセマンティックセグメンテーションは、実質的なクラス格差、隠蔽によるキーグラウンドオブジェクトの視認性、およびオブジェクトサイズの変化に大きく影響を受ける。
画像特徴学習と表現におけるディープ畳み込みニューラルネットワーク(DCNN)の異常な可能性にもかかわらず、正確なセマンティックセグメンテーションのためのFRRS画像から十分な特徴を抽出することは依然として困難である。
これらの課題は、ディープラーニングモデルに対して、堅牢な機能を学び、十分な機能記述子を生成することを要求する。
具体的には、地上からさまざまなオブジェクトサイズの適切なカバレッジを保証するためにマルチコンテキストの特徴を学習し、クラス格差を克服するためにグローバルなコンテキストを活用する。
より深いネットワークは、段階的なダウンサンプリングプロセスによって、セグメンテーション結果や粗い境界によって空間的詳細が著しく失われる。
本稿では、FRRS画像からのセマンティックセグメンテーションのためのスタックドディープ残差ネットワーク(SDRNet)を提案する。
提案フレームワークは,2つのスタック化されたエンコーダデコーダネットワークを用いて,空間情報を保存した長距離セマンティクスと,各エンコーダとデコーダネットワーク間の拡張残差ブロック(DRB)を利用して,十分なグローバル依存関係を捕捉し,セグメンテーション性能を向上させる。
ISPRS Vaihingen と Potsdam のデータセットを用いて得られた実験結果から,SDRNet はセマンティックセグメンテーションにおいて現在のDCNN に対して効果的かつ競合的に機能することを示した。
関連論文リスト
- DDU-Net: A Domain Decomposition-Based CNN for High-Resolution Image Segmentation on Multiple GPUs [46.873264197900916]
ドメイン分解に基づくU-Netアーキテクチャを導入し、入力イメージを重複しないパッチに分割する。
空間コンテキストの理解を高めるために、パッチ間情報交換を容易にするための通信ネットワークが追加される。
その結果、この手法は、パッチ間通信のない同一ネットワークと比較して、IoU(Universal over Union)スコアよりも2~3,%高い交点を達成できることが判明した。
論文 参考訳(メタデータ) (2024-07-31T01:07:21Z) - Rotated Multi-Scale Interaction Network for Referring Remote Sensing Image Segmentation [63.15257949821558]
Referring Remote Sensing Image (RRSIS)は、コンピュータビジョンと自然言語処理を組み合わせた新しい課題である。
従来の参照画像(RIS)アプローチは、空中画像に見られる複雑な空間スケールと向きによって妨げられている。
本稿ではRMSIN(Rotated Multi-Scale Interaction Network)を紹介する。
論文 参考訳(メタデータ) (2023-12-19T08:14:14Z) - SAR Despeckling Using Overcomplete Convolutional Networks [53.99620005035804]
スペックルはSAR画像を劣化させるため、リモートセンシングにおいて重要な問題である。
近年の研究では、畳み込みニューラルネットワーク(CNN)が古典的解法よりも優れていることが示されている。
本研究は、受容場を制限することで低レベルの特徴を学習することに集中するために、過剰なCNNアーキテクチャを用いる。
本稿では,合成および実SAR画像の非特定化手法と比較して,提案手法により非特定化性能が向上することを示す。
論文 参考訳(メタデータ) (2022-05-31T15:55:37Z) - Learning Enriched Features for Fast Image Restoration and Enhancement [166.17296369600774]
本稿では,ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とする。
我々は、高解像度の空間的詳細を同時に保存しながら、複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
提案手法は,デフォーカス・デブロアリング,画像デノイング,超解像,画像強調など,さまざまな画像処理タスクに対して,最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2022-04-19T17:59:45Z) - RSI-Net: Two-Stream Deep Neural Network Integrating GCN and Atrous CNN
for Semantic Segmentation of High-resolution Remote Sensing Images [3.468780866037609]
本稿では,リモートセンシング画像(RSI-Net)のセマンティックセグメンテーションのための2ストリームディープニューラルネットワークを提案する。
実験はVayhingen、Potsdam、Gaofen RSIデータセットで実施されている。
その結果,6つの最先端RSIセマンティックセグメンテーション法と比較して,総合的精度,F1スコア,カッパ係数において,RSI-Netの優れた性能を示した。
論文 参考訳(メタデータ) (2021-09-19T15:57:20Z) - A novel Deep Structure U-Net for Sea-Land Segmentation in Remote Sensing
Images [30.39131853354783]
本稿では,Residual Dense U-Net (RDU-Net) を用いた画素ワイド海面分割のための新しいディープニューラルネットワーク構造を提案する。
RDU-Netは、十分な結果を得るために、ダウンサンプリングとアップサンプリングの2つのパスの組み合わせである。
論文 参考訳(メタデータ) (2020-03-17T16:00:59Z) - Learning Enriched Features for Real Image Restoration and Enhancement [166.17296369600774]
畳み込みニューラルネットワーク(CNN)は、画像復元作業における従来のアプローチよりも劇的に改善されている。
ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とした,新しいアーキテクチャを提案する。
提案手法は,高解像度の空間的詳細を同時に保存しながら,複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
論文 参考訳(メタデータ) (2020-03-15T11:04:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。