論文の概要: Frequency Decomposition-Driven Unsupervised Domain Adaptation for Remote Sensing Image Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2404.04531v1
- Date: Sat, 6 Apr 2024 07:13:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-09 20:49:00.351633
- Title: Frequency Decomposition-Driven Unsupervised Domain Adaptation for Remote Sensing Image Semantic Segmentation
- Title(参考訳): リモートセンシング画像セマンティックセグメンテーションのための周波数分解駆動非教師なし領域適応
- Authors: Xianping Ma, Xiaokang Zhang, Xingchen Ding, Man-On Pun, Siwei Ma,
- Abstract要約: 非教師なし領域適応(UDA)技術に基づくリモートセンシング(RS)画像のクロスドメインセマンティックセマンティックセマンティックセマンティックセマンティクスは、地球科学における深層学習を著しく進歩させた。
ドメイン間の空間的詳細とグローバルな文脈意味論を同時に維持することは依然として困難である。
クロスドメインセマンティックセグメンテーションにおける表現アライメントを誘導する新しい高周波数分解法(HLFD)を提案する。
- 参考スコア(独自算出の注目度): 30.606689882397223
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cross-domain semantic segmentation of remote sensing (RS) imagery based on unsupervised domain adaptation (UDA) techniques has significantly advanced deep-learning applications in the geosciences. Recently, with its ingenious and versatile architecture, the Transformer model has been successfully applied in RS-UDA tasks. However, existing UDA methods mainly focus on domain alignment in the high-level feature space. It is still challenging to retain cross-domain local spatial details and global contextual semantics simultaneously, which is crucial for the RS image semantic segmentation task. To address these problems, we propose novel high/low-frequency decomposition (HLFD) techniques to guide representation alignment in cross-domain semantic segmentation. Specifically, HLFD attempts to decompose the feature maps into high- and low-frequency components before performing the domain alignment in the corresponding subspaces. Secondly, to further facilitate the alignment of decomposed features, we propose a fully global-local generative adversarial network, namely GLGAN, to learn domain-invariant detailed and semantic features across domains by leveraging global-local transformer blocks (GLTBs). By integrating HLFD techniques and the GLGAN, a novel UDA framework called FD-GLGAN is developed to improve the cross-domain transferability and generalization capability of semantic segmentation models. Extensive experiments on two fine-resolution benchmark datasets, namely ISPRS Potsdam and ISPRS Vaihingen, highlight the effectiveness and superiority of the proposed approach as compared to the state-of-the-art UDA methods. The source code for this work will be accessible at https://github.com/sstary/SSRS.
- Abstract(参考訳): 非教師なし領域適応(UDA)技術に基づくリモートセンシング(RS)画像のクロスドメインセマンティックセマンティックセマンティックセマンティックセマンティクスは、地球科学における深層学習を著しく進歩させた。
近年,トランスフォーマーモデルがRS-UDAタスクに適用されている。
しかし、既存のUDAメソッドは主に高レベルの特徴空間におけるドメインアライメントに焦点を当てている。
領域横断的な空間的詳細とグローバルな文脈的意味論を同時に維持することは、RS画像セマンティックセグメンテーションタスクにとって重要な課題である。
これらの問題に対処するために、クロスドメインセマンティックセグメンテーションにおける表現アライメントを導くための新しい高周波数分解法(HLFD)を提案する。
具体的には、HLFDは対応する部分空間でドメインアライメントを実行する前に、特徴写像を高周波数成分と低周波数成分に分解しようとする。
次に,グローバルローカルトランスフォーマーブロック(GLTB)を活用して,ドメイン間のドメイン不変な詳細および意味的特徴を学習するための,完全にグローバルな生成的敵ネットワークであるGLGANを提案する。
HLFD技術とGLGANを統合することで、セマンティックセグメンテーションモデルのクロスドメイン転送性と一般化能力を向上させるために、FD-GLGANと呼ばれる新しいUDAフレームワークを開発した。
ISPRS Potsdam と ISPRS Vaihingen の2つの詳細なベンチマークデータセットに対する大規模な実験は、提案手法の有効性と優位性を強調している。
この作業のソースコードはhttps://github.com/sstary/SSRS.comからアクセスできる。
関連論文リスト
- I2F: A Unified Image-to-Feature Approach for Domain Adaptive Semantic
Segmentation [55.633859439375044]
意味的セグメンテーションのための教師なしドメイン適応(UDA)は、重いアノテーション作業から人々を解放する有望なタスクである。
この問題に対処する主要なアイデアは、画像レベルと特徴レベルの両方を共同で実行することである。
本稿では,画像レベルと特徴レベルを統一したセマンティックセグメンテーションのための新しいUDAパイプラインを提案する。
論文 参考訳(メタデータ) (2023-01-03T15:19:48Z) - Depth-Assisted ResiDualGAN for Cross-Domain Aerial Images Semantic
Segmentation [15.29253551096484]
教師なしドメイン適応(Unsupervised domain adapt, UDA)は、ドメインギャップを最小化するためのアプローチである。
デジタルサーフェスモデル(DSM)は通常、ソースドメインとターゲットドメインの両方で利用可能である。
深度制御型ResiDualGAN (DRDG) を提案し, 深度制御型損失 (DCCL) を用いて生成モデルに深度情報をもたらす。
論文 参考訳(メタデータ) (2022-08-21T06:58:51Z) - Unsupervised domain adaptation semantic segmentation of high-resolution
remote sensing imagery with invariant domain-level context memory [10.210120085157161]
本研究では,HRS画像のセマンティックセマンティックセマンティックセマンティクスのための,教師なし領域適応セマンティクスネットワーク(MemoryAdaptNet)を提案する。
MemoryAdaptNetは、ソースドメインとターゲットドメイン間のドメイン分布の不一致をブリッジするために、出力空間逆学習スキームを構築する。
3つのクロスドメインタスクによる実験は、提案したMemoryAdaptNetが最先端の手法よりもはるかに優れていることを示している。
論文 参考訳(メタデータ) (2022-08-16T12:35:57Z) - Amplitude Spectrum Transformation for Open Compound Domain Adaptive
Semantic Segmentation [62.68759523116924]
オープン化合物ドメイン適応(OCDA)は、実用的な適応セットとして現れている。
我々は、新しい特徴空間振幅スペクトル変換(AST)を提案する。
論文 参考訳(メタデータ) (2022-02-09T05:40:34Z) - Stagewise Unsupervised Domain Adaptation with Adversarial Self-Training
for Road Segmentation of Remote Sensing Images [93.50240389540252]
リモートセンシング画像からの道路セグメンテーションは、幅広い応用可能性を持つ課題である。
本稿では,この領域における領域シフト(DS)問題に対処するため,RoadDAと呼ばれる新たな段階的ドメイン適応モデルを提案する。
2つのベンチマーク実験の結果、RoadDAはドメインギャップを効率的に減らし、最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-08-28T09:29:14Z) - AFAN: Augmented Feature Alignment Network for Cross-Domain Object
Detection [90.18752912204778]
オブジェクト検出のための教師なしドメイン適応は、多くの現実世界のアプリケーションにおいて難しい問題である。
本稿では、中間領域画像生成とドメイン・アドバイザリー・トレーニングを統合した新しい機能アライメント・ネットワーク(AFAN)を提案する。
提案手法は、類似および異種ドメイン適応の双方において、標準ベンチマークにおける最先端の手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2021-06-10T05:01:20Z) - Affinity Space Adaptation for Semantic Segmentation Across Domains [57.31113934195595]
本稿では,意味的セグメンテーションにおける教師なしドメイン適応(UDA)の問題に対処する。
ソースドメインとターゲットドメインが不変なセマンティック構造を持つという事実に触発され、ドメイン間におけるそのような不変性を活用することを提案する。
親和性空間適応戦略として,親和性空間の洗浄と親和性空間アライメントという2つの方法を開発した。
論文 参考訳(メタデータ) (2020-09-26T10:28:11Z) - Contextual-Relation Consistent Domain Adaptation for Semantic
Segmentation [44.19436340246248]
本稿では,革新的局所文脈相関整合ドメイン適応手法を提案する。
グローバルレベルのアライメントにおいて、地域レベルのコンピテンシーを達成することを目的としている。
実験では, 最先端手法と比較して, セグメンテーション性能が優れていることを示した。
論文 参考訳(メタデータ) (2020-07-05T19:00:46Z) - Domain Conditioned Adaptation Network [90.63261870610211]
本稿では,ドメイン条件付きチャネルアテンション機構を用いて,異なる畳み込みチャネルを励起するドメイン条件適応ネットワーク(DCAN)を提案する。
これは、ディープDAネットワークのドメインワイドな畳み込みチャネルアクティベーションを探求する最初の試みである。
論文 参考訳(メタデータ) (2020-05-14T04:23:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。