論文の概要: Give Me Your Trained Model: Domain Adaptive Semantic Segmentation
without Source Data
- arxiv url: http://arxiv.org/abs/2106.11653v1
- Date: Tue, 22 Jun 2021 10:21:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-23 21:24:31.658042
- Title: Give Me Your Trained Model: Domain Adaptive Semantic Segmentation
without Source Data
- Title(参考訳): トレーニングされたモデルを与える: ソースデータなしのドメイン適応セマンティックセグメンテーション
- Authors: Yuxi Wang, Jian Liang, Zhaoxiang Zhang
- Abstract要約: 対象ドメインにトレーニングされたソースモデルのみを提供するクロスドメインセマンティックセマンティックセマンティクスタスクを提案する。
具体的には、DAS$3$は3つのスキーム、すなわち特徴アライメント、自己学習、情報伝達から構成される。
ドメイン間および都市間駆動データセットの大規模な結果により、ソースデータへのアクセスを必要とするメソッドと同等のDAS$3$が検証される。
- 参考スコア(独自算出の注目度): 63.60200857555127
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Benefited from considerable pixel-level annotations collected from a specific
situation (source), the trained semantic segmentation model performs quite
well, but fails in a new situation (target) due to the large domain shift. To
mitigate the domain gap, previous cross-domain semantic segmentation methods
always assume the co-existence of source data and target data during
distribution alignment. However, the access to source data in the real scenario
may raise privacy concerns and violate intellectual property. To tackle this
problem, we focus on an interesting and challenging cross-domain semantic
segmentation task where only the trained source model is provided to the target
domain, and further propose a unified framework called Domain Adaptive Semantic
Segmentation without Source data (DAS$^3$ for short). Specifically, DAS$^3$
consists of three schemes, i.e., feature alignment, self-training, and
information propagation. First, we mainly develop a focal entropic loss on the
network outputs to implicitly align the target features with unseen source
features via the provided source model. Second, besides positive pseudo labels
in vanilla self-training, we first introduce negative pseudo labels to the
field and develop a bi-directional self-training strategy to enhance the
representation learning in the target domain. Finally, the information
propagation scheme further reduces the intra-domain discrepancy within the
target domain via pseudo semi-supervised learning. Extensive results on
synthesis-to-real and cross-city driving datasets validate DAS$^3$ yields
state-of-the-art performance, even on par with methods that need access to
source data.
- Abstract(参考訳): 特定の状況(ソース)から収集されたかなりのピクセルレベルのアノテーションに適合した、トレーニングされたセマンティックセグメンテーションモデルは、非常によく機能するが、大きなドメインシフトのために新しい状況(ターゲット)で失敗する。
ドメイン間ギャップを軽減するため、従来のクロスドメインセマンティクスセグメンテーション手法は、常に分散アライメント中のソースデータとターゲットデータの共存を前提としている。
しかし、実際のシナリオにおけるソースデータへのアクセスは、プライバシーの問題を引き起こし、知的財産を侵害する可能性がある。
本稿では,対象領域に訓練されたソースモデルのみを提供する,興味深く挑戦的なクロスドメイン意味セグメンテーションタスクに着目し,さらに,ソースデータ無しでドメイン適応意味セグメンテーションと呼ばれる統一フレームワークを提案する(das$^3$略)。
具体的には、das$^3$は3つのスキーム、すなわち特徴のアライメント、自己学習、情報伝達からなる。
まず,ネットワーク出力の局所的エントロピー損失を主に開発し,提供されたソースモデルによる対象特徴と未認識のソース特徴を暗黙的に整合させる。
第2に,バニラ自己学習における正の擬似ラベルに加えて,まずフィールドに負の擬似ラベルを導入し,対象領域における表現学習を強化するための双方向自己学習戦略を開発する。
最後に、情報伝達スキームは、擬似半教師付き学習により、対象領域内のドメイン内不一致をさらに低減する。
合成から現実へのおよび都市横断運転データセットの広範な結果は、ソースデータへのアクセスを必要とするメソッドと同等であっても、das$^3$が最先端のパフォーマンスをもたらす。
関連論文リスト
- Towards Source-free Domain Adaptive Semantic Segmentation via Importance-aware and Prototype-contrast Learning [26.544837987747766]
本稿では、Importance-Aware と Prototype-Contrast Learning を用いた、エンドツーエンドのソースフリードメイン適応セマンティックセマンティックセマンティクス手法を提案する。
提案したIAPCフレームワークは、訓練済みソースモデルからドメイン不変知識を効果的に抽出し、ラベルなしターゲットドメインからドメイン固有知識を学習する。
論文 参考訳(メタデータ) (2023-06-02T15:09:19Z) - Dual Moving Average Pseudo-Labeling for Source-Free Inductive Domain
Adaptation [45.024029784248825]
教師なしドメイン適応は、ソースからターゲットドメインに知識を適用することによって、ディープラーニングにおけるデータアノテーションへの依存を減らす。
プライバシと効率上の懸念に対して、ソースフリーなドメイン適応は、トレーニング済みのソースモデルをラベルなしのターゲットドメインに適応することにより、教師なしのドメイン適応を拡張します。
本稿では,DMAPL (Dual moving Average Pseudo-Labeling) という半教師付きファインチューニング手法を提案する。
論文 参考訳(メタデータ) (2022-12-15T23:20:13Z) - Self-training via Metric Learning for Source-Free Domain Adaptation of Semantic Segmentation [3.1460691683829825]
教師なしのドメイン適応手法は、事前訓練されたソースドメインモデルとラベルなしのターゲットドメインデータを用いて、ターゲットドメインのモデルをトレーニングすることを目的としている。
従来の手法では、通常擬似ラベルによる自己学習が用いられており、予測信頼度に基づいてしきい値付けされることが多い。
本稿では,教師ネットワークからの全ての予測を用いて,学生ネットワークを訓練する平均教師モデルを導入することによって,新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-12-08T12:20:35Z) - Source-Free Domain Adaptive Fundus Image Segmentation with Denoised
Pseudo-Labeling [56.98020855107174]
ドメイン適応は通常、ソースドメインデータにアクセスして、ターゲットデータとのドメインアライメントのために配布情報を利用する必要があります。
多くの実世界のシナリオでは、プライバシの問題により、ターゲットドメインのモデル適応中にソースデータがアクセスできない場合がある。
本稿では,本問題に対する新たな擬似ラベル付け手法を提案する。
論文 参考訳(メタデータ) (2021-09-19T06:38:21Z) - Distill and Fine-tune: Effective Adaptation from a Black-box Source
Model [138.12678159620248]
Unsupervised Domain Adapt (UDA) は、既存のラベル付きデータセット (source) の知識を新しいラベル付きデータセット (target) に転送することを目的としています。
Distill and Fine-tune (Dis-tune) という新しい二段階適応フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-04T05:29:05Z) - Source-Free Domain Adaptation for Semantic Segmentation [11.722728148523366]
Unsupervised Domain Adaptation(UDA)は、セマンティックセグメンテーションのための畳み込みニューラルネットワークベースのアプローチがピクセルレベルの注釈付きデータに大きく依存するという課題に取り組むことができる。
そこで本稿では,十分に訓練されたソースモデルとラベルなしのターゲットドメインデータセットのみを適用可能な,意味セグメンテーションのためのソースフリーなドメイン適応フレームワークsfdaを提案する。
論文 参考訳(メタデータ) (2021-03-30T14:14:29Z) - Self-Supervised Noisy Label Learning for Source-Free Unsupervised Domain
Adaptation [87.60688582088194]
新規な自己監督雑音ラベル学習法を提案する。
本手法は最新の結果を容易に達成でき、他の手法を非常に大きなマージンで超えることができる。
論文 参考訳(メタデータ) (2021-02-23T10:51:45Z) - Source Data-absent Unsupervised Domain Adaptation through Hypothesis
Transfer and Labeling Transfer [137.36099660616975]
Unsupervised Adapt Adaptation (UDA) は、関連性のある異なるラベル付きソースドメインから新しいラベルなしターゲットドメインへの知識の転送を目標としている。
既存のudaメソッドの多くはソースデータへのアクセスを必要としており、プライバシ上の懸念からデータが機密で共有できない場合は適用できない。
本稿では、ソースデータにアクセスする代わりに、トレーニング済みの分類モデルのみを用いて現実的な設定に取り組むことを目的とする。
論文 参考訳(メタデータ) (2020-12-14T07:28:50Z) - Do We Really Need to Access the Source Data? Source Hypothesis Transfer
for Unsupervised Domain Adaptation [102.67010690592011]
Unsupervised adaptUDA (UDA) は、ラベル付きソースデータセットから学んだ知識を活用して、新しいラベル付きドメインで同様のタスクを解決することを目的としている。
従来のUDAメソッドは、モデルに適応するためには、通常、ソースデータにアクセスする必要がある。
この作業は、訓練済みのソースモデルのみが利用できる実践的な環境に取り組み、ソースデータなしでそのようなモデルを効果的に活用してUDA問題を解決する方法に取り組みます。
論文 参考訳(メタデータ) (2020-02-20T03:13:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。