論文の概要: Source-Free Domain Adaptive Semantic Segmentation of Remote Sensing Images with Diffusion-Guided Label Enrichment
- arxiv url: http://arxiv.org/abs/2509.18502v1
- Date: Tue, 23 Sep 2025 01:10:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 20:41:27.629852
- Title: Source-Free Domain Adaptive Semantic Segmentation of Remote Sensing Images with Diffusion-Guided Label Enrichment
- Title(参考訳): 拡散誘導ラベルエンリッチメントを用いたリモートセンシング画像のソースフリー領域適応セマンティックセマンティックセマンティックセグメンテーション
- Authors: Wenjie Liu, Hongmin Liu, Lixin Zhang, Bin Fan,
- Abstract要約: 自己学習はFDAで広く使われており、ターゲットのドメインデータ上でモデルをトレーニングするためには、可能な限り高品質な擬似ラベルを取得する必要がある。
DGLE(Diffusion-Guided Label Enrichment)と呼ばれる新しい擬似ラベル最適化フレームワークを提案する。
入手が容易ないくつかの擬似ラベルから始まり、新たに生成されたラベルの品質を確保しながら、それらを完全な擬似ラベルに伝達する。
- 参考スコア(独自算出の注目度): 18.05142463882686
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Research on unsupervised domain adaptation (UDA) for semantic segmentation of remote sensing images has been extensively conducted. However, research on how to achieve domain adaptation in practical scenarios where source domain data is inaccessible namely, source-free domain adaptation (SFDA) remains limited. Self-training has been widely used in SFDA, which requires obtaining as many high-quality pseudo-labels as possible to train models on target domain data. Most existing methods optimize the entire pseudo-label set to obtain more supervisory information. However, as pseudo-label sets often contain substantial noise, simultaneously optimizing all labels is challenging. This limitation undermines the effectiveness of optimization approaches and thus restricts the performance of self-training. To address this, we propose a novel pseudo-label optimization framework called Diffusion-Guided Label Enrichment (DGLE), which starts from a few easily obtained high-quality pseudo-labels and propagates them to a complete set of pseudo-labels while ensuring the quality of newly generated labels. Firstly, a pseudo-label fusion method based on confidence filtering and super-resolution enhancement is proposed, which utilizes cross-validation of details and contextual information to obtain a small number of high-quality pseudo-labels as initial seeds. Then, we leverage the diffusion model to propagate incomplete seed pseudo-labels with irregular distributions due to its strong denoising capability for randomly distributed noise and powerful modeling capacity for complex distributions, thereby generating complete and high-quality pseudo-labels. This method effectively avoids the difficulty of directly optimizing the complete set of pseudo-labels, significantly improves the quality of pseudo-labels, and thus enhances the model's performance in the target domain.
- Abstract(参考訳): リモートセンシング画像のセマンティックセグメンテーションのための教師なし領域適応(UDA)に関する研究が盛んに行われている。
しかし、ソースドメインデータがアクセス不能な現実的なシナリオ、すなわちソースフリードメイン適応(SFDA)において、ドメイン適応を実現する方法の研究は依然として限られている。
自己学習はFDAで広く使われており、ターゲットのドメインデータ上でモデルをトレーニングするためには、可能な限り高品質な擬似ラベルを取得する必要がある。
既存のほとんどの手法は、より監督的な情報を得るために擬似ラベルセット全体を最適化する。
しかし、擬似ラベル集合には大きなノイズが伴うことが多く、同時に全てのラベルを最適化することは困難である。
この制限は最適化アプローチの有効性を損なうため、自己学習の性能を制限する。
そこで我々は,DGLE(Diffusion-Guided Label Enrichment)と呼ばれる新しい擬似ラベル最適化フレームワークを提案する。
まず,信頼度フィルタリングと超高分解能化に基づく擬似ラベル融合法を提案し,詳細情報と文脈情報の相互検証を用いて,少数の高品質な擬似ラベルを初期種子として得る。
そこで, 拡散モデルを用いて不完全シード擬似ラベルを不規則分布で伝播させる。これは, ランダム分散雑音の強いデノナイズ能力と複素分布の強力なモデリング能力により, 完全かつ高品質な擬似ラベルを生成する。
この方法は、擬似ラベルの完全集合を直接最適化することの難しさを効果的に回避し、擬似ラベルの品質を大幅に改善し、ターゲットドメインにおけるモデルの性能を向上させる。
関連論文リスト
- De-Confusing Pseudo-Labels in Source-Free Domain Adaptation [14.954662088592762]
ソースのないドメイン適応は、ソースデータにアクセスすることなく、未ラベルのターゲットドメインにソース訓練されたモデルを適用することを目的としている。
本稿では,ドメイン適応設定における雑音分布に対処するための新しいノイズ学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-03T10:07:11Z) - Unsupervised Domain Adaptation for Semantic Segmentation with Pseudo
Label Self-Refinement [9.69089112870202]
擬似ラベルのオンライン精錬のための補助的擬似ラベル精錬ネットワーク(PRN)を提案する。
3つの異なるドメインシフトを持つベンチマークデータセットに対する我々のアプローチを評価する。
論文 参考訳(メタデータ) (2023-10-25T20:31:07Z) - Robust Target Training for Multi-Source Domain Adaptation [110.77704026569499]
両レベル最適化に基づく新しいMSDAのためのロバスト目標訓練法(BORT$2$)を提案する。
提案手法は,大規模なDomainNetデータセットを含む3つのMSDAベンチマークにおいて,アートパフォーマンスの状態を達成している。
論文 参考訳(メタデータ) (2022-10-04T15:20:01Z) - Improving Pseudo Labels With Intra-Class Similarity for Unsupervised
Domain Adaptation [14.059958451082544]
対象領域における擬似ラベルの精度を向上させるための新しい手法を提案する。
提案手法は、擬似ラベルの精度を高め、さらに識別性や領域不変性を高めることができる。
論文 参考訳(メタデータ) (2022-07-25T12:42:24Z) - CA-UDA: Class-Aware Unsupervised Domain Adaptation with Optimal
Assignment and Pseudo-Label Refinement [84.10513481953583]
教師なしドメイン適応(Unsupervised domain adapt, UDA)は、ターゲットデータに欠けているラベルのサロゲートとして、優れた擬似ラベルの選択に焦点を当てる。
ソースとターゲットドメインの共有ネットワークが通常、擬似ラベルの選択に使用されるため、擬似ラベルを劣化させるソースドメインバイアスは依然として存在する。
本稿では, 擬似ラベルの品質向上のためのCA-UDAを提案し, 最適課題, 擬似ラベル改善戦略, クラス対応ドメインアライメントを提案する。
論文 参考訳(メタデータ) (2022-05-26T18:45:04Z) - Source-Free Domain Adaptive Fundus Image Segmentation with Denoised
Pseudo-Labeling [56.98020855107174]
ドメイン適応は通常、ソースドメインデータにアクセスして、ターゲットデータとのドメインアライメントのために配布情報を利用する必要があります。
多くの実世界のシナリオでは、プライバシの問題により、ターゲットドメインのモデル適応中にソースデータがアクセスできない場合がある。
本稿では,本問題に対する新たな擬似ラベル付け手法を提案する。
論文 参考訳(メタデータ) (2021-09-19T06:38:21Z) - Adaptive Pseudo-Label Refinement by Negative Ensemble Learning for
Source-Free Unsupervised Domain Adaptation [35.728603077621564]
既存のUnsupervised Domain Adaptation (UDA)メソッドは、トレーニング中にソースとターゲットのドメインデータを同時に利用できると仮定する。
訓練済みのソースモデルは、よく知られたドメインシフトの問題により、ターゲットに対して性能が悪くても、常に利用可能であると考えられている。
適応型ノイズフィルタリングと擬似ラベル改良に取り組むための統一手法を提案する。
論文 参考訳(メタデータ) (2021-03-29T22:18:34Z) - Sparsely-Labeled Source Assisted Domain Adaptation [64.75698236688729]
本稿では,Sparsely-Labeled Source Assisted Domain Adaptation (SLSA-DA)アルゴリズムを提案する。
ラベル不足の問題により、ソースドメインとターゲットドメインの両方で投影されたクラスタリングが行われる。
論文 参考訳(メタデータ) (2020-05-08T15:37:35Z) - Mutual Mean-Teaching: Pseudo Label Refinery for Unsupervised Domain
Adaptation on Person Re-identification [56.97651712118167]
人物再識別(re-ID)は、異なるカメラで同一人物の画像を特定することを目的としている。
異なるデータセット間のドメインの多様性は、あるデータセットでトレーニングされたre-IDモデルを別のデータセットに適応させる上で、明らかな課題となる。
教師なしフレームワークであるMutual Mean-Teaching(MMT)を提案し、オフラインで改良されたハードな擬似ラベルとオンラインで改良されたソフトな擬似ラベルを用いて、ターゲットドメインからより良い特徴を学習する。
論文 参考訳(メタデータ) (2020-01-06T12:42:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。