論文の概要: TEFormer: Texture-Aware and Edge-Guided Transformer for Semantic Segmentation of Urban Remote Sensing Images
- arxiv url: http://arxiv.org/abs/2508.06224v1
- Date: Fri, 08 Aug 2025 11:08:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 20:39:06.208361
- Title: TEFormer: Texture-Aware and Edge-Guided Transformer for Semantic Segmentation of Urban Remote Sensing Images
- Title(参考訳): TEFormer:都市リモートセンシング画像のセマンティックセグメンテーションのためのテクスチャ認識およびエッジガイド変換器
- Authors: Guoyu Zhou, Jing Zhang, Yi Yan, Hui Zhang, Li Zhuo,
- Abstract要約: 都市リモートセンシング画像(URSI)のセマンティックセグメンテーションのためのテクスチャ認識とエッジ誘導機構を統合したテクスチャ認識・エッジ誘導変換器(TEFormer)を提案する。
テクスチャ認識モジュール(TaM)は、視覚的に類似したカテゴリ間の微妙なテクスチャの相違を捉え、セマンティック識別を高めるように設計されている。次いで、エッジ誘導三分岐デコーダ(Eg3Head)を構築して、局所的なエッジと詳細をマルチスケールのコンテキスト認識のために保存する。最後に、エッジ誘導機能融合モジュール(EgFFM)は、コンテキストと詳細情報をエッジ情報で融合する。
- 参考スコア(独自算出の注目度): 12.619514274178472
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semantic segmentation of urban remote sensing images (URSIs) is crucial for applications such as urban planning and environmental monitoring. However, geospatial objects often exhibit subtle texture differences and similar spatial structures, which can easily lead to semantic ambiguity and misclassification. Moreover, challenges such as irregular object shapes, blurred boundaries, and overlapping spatial distributions of semantic objects contribute to complex and diverse edge morphologies, further complicating accurate segmentation. To tackle these issues, we propose a texture-aware and edge-guided Transformer (TEFormer) that integrates texture awareness and edge-guidance mechanisms for semantic segmentation of URSIs. In the encoder, a texture-aware module (TaM) is designed to capture fine-grained texture differences between visually similar categories to enhance semantic discrimination. Then, an edge-guided tri-branch decoder (Eg3Head) is constructed to preserve local edges and details for multiscale context-awareness. Finally, an edge-guided feature fusion module (EgFFM) is to fuse contextual and detail information with edge information to realize refined semantic segmentation. Extensive experiments show that TEFormer achieves mIoU of 88.57%, 81.46%, and 53.55% on the Potsdam, Vaihingen, and LoveDA datasets, respectively, shows the effectiveness in URSI semantic segmentation.
- Abstract(参考訳): 都市におけるリモートセンシング画像(URSI)のセマンティックセグメンテーションは,都市計画や環境モニタリングなどの応用に不可欠である。
しかし、地理空間的対象はしばしば微妙なテクスチャの違いや類似した空間構造を示し、意味的曖昧さや誤分類につながる可能性がある。
さらに、不規則な物体形状、ぼやけた境界、重なり合う意味オブジェクトの空間分布といった課題は、複雑で多様なエッジ形態に寄与し、さらに正確なセグメンテーションを複雑にする。
これらの課題に対処するために、テクスチャ認識とエッジ誘導機構を統合したテクスチャ認識およびエッジ誘導変換器(TEFormer)を提案する。
エンコーダにおいて、テクスチャ認識モジュール(TaM)は、視覚的に類似したカテゴリ間のきめ細かいテクスチャの相違を捉え、意味的識別を高めるように設計されている。
次に、エッジ誘導三分岐デコーダ(Eg3Head)を構築し、局所的なエッジと詳細をマルチスケールのコンテキスト認識のために保存する。
最後に、エッジ誘導機能融合モジュール(EgFFM)は、コンテキスト情報と詳細情報を融合し、洗練されたセマンティックセグメンテーションを実現する。
大規模な実験により、TEFormerはポツダム、ヴァイヒンゲン、ラブダのデータセットでそれぞれ88.57%、81.46%、53.55%のmIoUを達成し、URSIセマンティックセグメンテーションの有効性を示している。
関連論文リスト
- Structural and Statistical Texture Knowledge Distillation and Learning for Segmentation [70.15341084443236]
セマンティックセグメンテーションと関連する知識蒸留タスクのためのディープネットワークにおける低レベルのテクスチャ情報を再強調する。
セグメンテーションのための構造的・統計的テクスチャ知識蒸留(SSTKD)フレームワークを提案する。
特に、低レベルの特徴を分解するためにContourlet Decomposition Module (CDM)が導入されている。
テクスチャ強度等化モジュール(TIEM)は、統計テクスチャ知識を抽出し、強化するために設計されている。
論文 参考訳(メタデータ) (2025-03-11T04:49:25Z) - EAGLE: Eigen Aggregation Learning for Object-Centric Unsupervised Semantic Segmentation [5.476136494434766]
意味的類似性行列から派生した固有ベイズを通して意味的および構造的手がかりを提供する手法であるEiCueを紹介する。
オブジェクトレベルの表現を画像内および画像間の整合性で学習する。
COCO-Stuff、Cityscapes、Potsdam-3データセットの実験では、最先端のUSSの結果が示されている。
論文 参考訳(メタデータ) (2024-03-03T11:24:16Z) - GP-NeRF: Generalized Perception NeRF for Context-Aware 3D Scene Understanding [101.32590239809113]
Generalized Perception NeRF (GP-NeRF) は、広く使われているセグメンテーションモデルとNeRFを統一されたフレームワークで相互に動作させる新しいパイプラインである。
本稿では,セマンティック蒸留損失(Semantic Distill Loss)とDepth-Guided Semantic Distill Loss(Depth-Guided Semantic Distill Loss)という2つの自己蒸留機構を提案する。
論文 参考訳(メタデータ) (2023-11-20T15:59:41Z) - Improving Semi-Supervised and Domain-Adaptive Semantic Segmentation with
Self-Supervised Depth Estimation [94.16816278191477]
本稿では,セミアダプティブなセマンティックセマンティックセマンティックセグメンテーションのためのフレームワークを提案する。
ラベルのない画像シーケンスでのみ訓練された自己教師付き単眼深度推定によって強化される。
提案したモデルをCityscapesデータセット上で検証する。
論文 参考訳(メタデータ) (2021-08-28T01:33:38Z) - Transformer Meets Convolution: A Bilateral Awareness Net-work for
Semantic Segmentation of Very Fine Resolution Ur-ban Scene Images [6.460167724233707]
本稿では,依存経路とテクスチャパスを含む相互認知ネットワーク(BANet)を提案する。
BANetは、VFR画像の長距離関係と細かな詳細をキャプチャする。
3つの大規模都市景観画像セグメンテーションデータセット(ISPRS Vaihingen データセット、ISPRS Potsdam データセット、UAVid データセット)で実施された実験は、BANetの有効性を実証している。
論文 参考訳(メタデータ) (2021-06-23T13:57:36Z) - Edge Guided GANs with Contrastive Learning for Semantic Image Synthesis [194.1452124186117]
本稿では,難解なセマンティック画像合成タスクのための新しいECGANを提案する。
我々のECGANは最先端の手法よりもはるかに優れた結果が得られる。
論文 参考訳(メタデータ) (2020-03-31T01:23:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。