論文の概要: A Curriculum-style Self-training Approach for Source-Free Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2106.11653v5
- Date: Fri, 19 Jul 2024 13:51:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-23 02:31:08.852574
- Title: A Curriculum-style Self-training Approach for Source-Free Semantic Segmentation
- Title(参考訳): ソースフリーセマンティックセグメンテーションのためのカリキュラム型自己学習手法
- Authors: Yuxi Wang, Jian Liang, Zhaoxiang Zhang,
- Abstract要約: ソースフリーなドメイン適応型セマンティックセマンティックセグメンテーションのためのカリキュラムスタイルの自己学習手法を提案する。
提案手法は, ソースフリーなセマンティックセグメンテーションタスクにおいて, 合成-実-実-実-実-実-実-非実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実
- 参考スコア(独自算出の注目度): 91.13472029666312
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Source-free domain adaptation has developed rapidly in recent years, where the well-trained source model is adapted to the target domain instead of the source data, offering the potential for privacy concerns and intellectual property protection. However, a number of feature alignment techniques in prior domain adaptation methods are not feasible in this challenging problem setting. Thereby, we resort to probing inherent domain-invariant feature learning and propose a curriculum-style self-training approach for source-free domain adaptive semantic segmentation. In particular, we introduce a curriculum-style entropy minimization method to explore the implicit knowledge from the source model, which fits the trained source model to the target data using certain information from easy-to-hard predictions. We then train the segmentation network by the proposed complementary curriculum-style self-training, which utilizes the negative and positive pseudo labels following the curriculum-learning manner. Although negative pseudo-labels with high uncertainty cannot be identified with the correct labels, they can definitely indicate absent classes. Moreover, we employ an information propagation scheme to further reduce the intra-domain discrepancy within the target domain, which could act as a standard post-processing method for the domain adaptation field. Furthermore, we extend the proposed method to a more challenging black-box source model scenario where only the source model's predictions are available. Extensive experiments validate that our method yields state-of-the-art performance on source-free semantic segmentation tasks for both synthetic-to-real and adverse conditions datasets. The code and corresponding trained models are released at \url{https://github.com/yxiwang/ATP}.
- Abstract(参考訳): ソースのないドメイン適応は近年急速に発展しており、十分に訓練されたソースモデルはソースデータではなくターゲットドメインに適応し、プライバシの懸念や知的財産権保護の可能性を秘めている。
しかし、この困難な問題設定では、事前のドメイン適応手法における多くの特徴アライメント技術は実現不可能である。
そこで我々は、固有のドメイン不変な特徴学習を探索し、ソースフリーなドメイン適応セマンティックセマンティックセグメンテーションのためのカリキュラムスタイルの自己学習手法を提案する。
特に,カリキュラムスタイルのエントロピー最小化手法を導入し,学習したソースモデルと対象データとを適合させた暗黙の知識を探索する。
次に,学習方法に従って負の擬似ラベルと正の擬似ラベルを利用する,補完的なカリキュラムスタイルの自己学習によってセグメンテーションネットワークを訓練する。
不確実性の高い負の擬似ラベルは、正しいラベルでは識別できないが、確実に欠落しているクラスを示すことができる。
さらに、情報伝達方式を用いて、対象領域内のドメイン内不一致をさらに低減し、ドメイン適応フィールドの標準的な後処理方法として機能させることができる。
さらに,提案手法を,より難解なブラックボックス・ソース・モデル・シナリオに拡張する。
大規模な実験により,本手法は,合成・現実・悪条件の両方のデータセットに対して,ソースフリーなセマンティックセマンティックセグメンテーションタスクに対して,最先端の性能が得られることが検証された。
コードとそれに対応するトレーニングされたモデルは、 \url{https://github.com/yxiwang/ATP} でリリースされる。
関連論文リスト
- Towards Source-free Domain Adaptive Semantic Segmentation via Importance-aware and Prototype-contrast Learning [26.544837987747766]
本稿では、Importance-Aware と Prototype-Contrast Learning を用いた、エンドツーエンドのソースフリードメイン適応セマンティックセマンティックセマンティクス手法を提案する。
提案したIAPCフレームワークは、訓練済みソースモデルからドメイン不変知識を効果的に抽出し、ラベルなしターゲットドメインからドメイン固有知識を学習する。
論文 参考訳(メタデータ) (2023-06-02T15:09:19Z) - Dual Moving Average Pseudo-Labeling for Source-Free Inductive Domain
Adaptation [45.024029784248825]
教師なしドメイン適応は、ソースからターゲットドメインに知識を適用することによって、ディープラーニングにおけるデータアノテーションへの依存を減らす。
プライバシと効率上の懸念に対して、ソースフリーなドメイン適応は、トレーニング済みのソースモデルをラベルなしのターゲットドメインに適応することにより、教師なしのドメイン適応を拡張します。
本稿では,DMAPL (Dual moving Average Pseudo-Labeling) という半教師付きファインチューニング手法を提案する。
論文 参考訳(メタデータ) (2022-12-15T23:20:13Z) - Self-training via Metric Learning for Source-Free Domain Adaptation of Semantic Segmentation [3.1460691683829825]
教師なしのドメイン適応手法は、事前訓練されたソースドメインモデルとラベルなしのターゲットドメインデータを用いて、ターゲットドメインのモデルをトレーニングすることを目的としている。
従来の手法では、通常擬似ラベルによる自己学習が用いられており、予測信頼度に基づいてしきい値付けされることが多い。
本稿では,教師ネットワークからの全ての予測を用いて,学生ネットワークを訓練する平均教師モデルを導入することによって,新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-12-08T12:20:35Z) - Source-Free Domain Adaptive Fundus Image Segmentation with Denoised
Pseudo-Labeling [56.98020855107174]
ドメイン適応は通常、ソースドメインデータにアクセスして、ターゲットデータとのドメインアライメントのために配布情報を利用する必要があります。
多くの実世界のシナリオでは、プライバシの問題により、ターゲットドメインのモデル適応中にソースデータがアクセスできない場合がある。
本稿では,本問題に対する新たな擬似ラベル付け手法を提案する。
論文 参考訳(メタデータ) (2021-09-19T06:38:21Z) - Distill and Fine-tune: Effective Adaptation from a Black-box Source
Model [138.12678159620248]
Unsupervised Domain Adapt (UDA) は、既存のラベル付きデータセット (source) の知識を新しいラベル付きデータセット (target) に転送することを目的としています。
Distill and Fine-tune (Dis-tune) という新しい二段階適応フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-04T05:29:05Z) - Source-Free Domain Adaptation for Semantic Segmentation [11.722728148523366]
Unsupervised Domain Adaptation(UDA)は、セマンティックセグメンテーションのための畳み込みニューラルネットワークベースのアプローチがピクセルレベルの注釈付きデータに大きく依存するという課題に取り組むことができる。
そこで本稿では,十分に訓練されたソースモデルとラベルなしのターゲットドメインデータセットのみを適用可能な,意味セグメンテーションのためのソースフリーなドメイン適応フレームワークsfdaを提案する。
論文 参考訳(メタデータ) (2021-03-30T14:14:29Z) - Self-Supervised Noisy Label Learning for Source-Free Unsupervised Domain
Adaptation [87.60688582088194]
新規な自己監督雑音ラベル学習法を提案する。
本手法は最新の結果を容易に達成でき、他の手法を非常に大きなマージンで超えることができる。
論文 参考訳(メタデータ) (2021-02-23T10:51:45Z) - Source Data-absent Unsupervised Domain Adaptation through Hypothesis
Transfer and Labeling Transfer [137.36099660616975]
Unsupervised Adapt Adaptation (UDA) は、関連性のある異なるラベル付きソースドメインから新しいラベルなしターゲットドメインへの知識の転送を目標としている。
既存のudaメソッドの多くはソースデータへのアクセスを必要としており、プライバシ上の懸念からデータが機密で共有できない場合は適用できない。
本稿では、ソースデータにアクセスする代わりに、トレーニング済みの分類モデルのみを用いて現実的な設定に取り組むことを目的とする。
論文 参考訳(メタデータ) (2020-12-14T07:28:50Z) - Do We Really Need to Access the Source Data? Source Hypothesis Transfer
for Unsupervised Domain Adaptation [102.67010690592011]
Unsupervised adaptUDA (UDA) は、ラベル付きソースデータセットから学んだ知識を活用して、新しいラベル付きドメインで同様のタスクを解決することを目的としている。
従来のUDAメソッドは、モデルに適応するためには、通常、ソースデータにアクセスする必要がある。
この作業は、訓練済みのソースモデルのみが利用できる実践的な環境に取り組み、ソースデータなしでそのようなモデルを効果的に活用してUDA問題を解決する方法に取り組みます。
論文 参考訳(メタデータ) (2020-02-20T03:13:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。