論文の概要: Give Me Your Trained Model: Domain Adaptive Semantic Segmentation
without Source Data
- arxiv url: http://arxiv.org/abs/2106.11653v1
- Date: Tue, 22 Jun 2021 10:21:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-23 21:24:31.658042
- Title: Give Me Your Trained Model: Domain Adaptive Semantic Segmentation
without Source Data
- Title(参考訳): トレーニングされたモデルを与える: ソースデータなしのドメイン適応セマンティックセグメンテーション
- Authors: Yuxi Wang, Jian Liang, Zhaoxiang Zhang
- Abstract要約: 対象ドメインにトレーニングされたソースモデルのみを提供するクロスドメインセマンティックセマンティックセマンティクスタスクを提案する。
具体的には、DAS$3$は3つのスキーム、すなわち特徴アライメント、自己学習、情報伝達から構成される。
ドメイン間および都市間駆動データセットの大規模な結果により、ソースデータへのアクセスを必要とするメソッドと同等のDAS$3$が検証される。
- 参考スコア(独自算出の注目度): 63.60200857555127
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Benefited from considerable pixel-level annotations collected from a specific
situation (source), the trained semantic segmentation model performs quite
well, but fails in a new situation (target) due to the large domain shift. To
mitigate the domain gap, previous cross-domain semantic segmentation methods
always assume the co-existence of source data and target data during
distribution alignment. However, the access to source data in the real scenario
may raise privacy concerns and violate intellectual property. To tackle this
problem, we focus on an interesting and challenging cross-domain semantic
segmentation task where only the trained source model is provided to the target
domain, and further propose a unified framework called Domain Adaptive Semantic
Segmentation without Source data (DAS$^3$ for short). Specifically, DAS$^3$
consists of three schemes, i.e., feature alignment, self-training, and
information propagation. First, we mainly develop a focal entropic loss on the
network outputs to implicitly align the target features with unseen source
features via the provided source model. Second, besides positive pseudo labels
in vanilla self-training, we first introduce negative pseudo labels to the
field and develop a bi-directional self-training strategy to enhance the
representation learning in the target domain. Finally, the information
propagation scheme further reduces the intra-domain discrepancy within the
target domain via pseudo semi-supervised learning. Extensive results on
synthesis-to-real and cross-city driving datasets validate DAS$^3$ yields
state-of-the-art performance, even on par with methods that need access to
source data.
- Abstract(参考訳): 特定の状況(ソース)から収集されたかなりのピクセルレベルのアノテーションに適合した、トレーニングされたセマンティックセグメンテーションモデルは、非常によく機能するが、大きなドメインシフトのために新しい状況(ターゲット)で失敗する。
ドメイン間ギャップを軽減するため、従来のクロスドメインセマンティクスセグメンテーション手法は、常に分散アライメント中のソースデータとターゲットデータの共存を前提としている。
しかし、実際のシナリオにおけるソースデータへのアクセスは、プライバシーの問題を引き起こし、知的財産を侵害する可能性がある。
本稿では,対象領域に訓練されたソースモデルのみを提供する,興味深く挑戦的なクロスドメイン意味セグメンテーションタスクに着目し,さらに,ソースデータ無しでドメイン適応意味セグメンテーションと呼ばれる統一フレームワークを提案する(das$^3$略)。
具体的には、das$^3$は3つのスキーム、すなわち特徴のアライメント、自己学習、情報伝達からなる。
まず,ネットワーク出力の局所的エントロピー損失を主に開発し,提供されたソースモデルによる対象特徴と未認識のソース特徴を暗黙的に整合させる。
第2に,バニラ自己学習における正の擬似ラベルに加えて,まずフィールドに負の擬似ラベルを導入し,対象領域における表現学習を強化するための双方向自己学習戦略を開発する。
最後に、情報伝達スキームは、擬似半教師付き学習により、対象領域内のドメイン内不一致をさらに低減する。
合成から現実へのおよび都市横断運転データセットの広範な結果は、ソースデータへのアクセスを必要とするメソッドと同等であっても、das$^3$が最先端のパフォーマンスをもたらす。
関連論文リスト
- Pulling Target to Source: A New Perspective on Domain Adaptive Semantic
Segmentation [60.78786037080524]
ドメイン適応セマンティックセグメンテーションは、ラベル付きソースドメインからラベルなしターゲットドメインに知識を転送することを目的としています。
我々はT2S-DAを提案し、T2S-DAはドメイン適応のためのソースにターゲットを引っ張る形式として解釈する。
論文 参考訳(メタデータ) (2023-05-23T07:09:09Z) - DecoupleNet: Decoupled Network for Domain Adaptive Semantic Segmentation [78.30720731968135]
セマンティックセグメンテーションにおける教師なしドメイン適応は、高価なピクセル単位のアノテーションへの依存を軽減するために提起されている。
我々は、ソースドメインのオーバーフィットを軽減し、最終的なモデルをセグメント化タスクに集中できるようにするDecoupleNetを提案する。
我々はまた、自己識別(SD)を推進し、擬似ラベルでより識別可能なターゲットドメイン特徴を学習するための補助分類器を導入した。
論文 参考訳(メタデータ) (2022-07-20T15:47:34Z) - Domain Adaptive Semantic Segmentation without Source Data [50.18389578589789]
モデルがソースドメイン上で事前学習されていることを前提として、ソースデータのないドメイン適応セマンティックセマンティックセマンティックセマンティクスについて検討する。
本稿では,この課題に対して,肯定的学習と否定的学習という2つの要素を用いた効果的な枠組みを提案する。
私たちのフレームワークは、パフォーマンスをさらに向上するために、他のメソッドに簡単に実装および組み込むことができます。
論文 参考訳(メタデータ) (2021-10-13T04:12:27Z) - Source-Free Domain Adaptation for Semantic Segmentation [11.722728148523366]
Unsupervised Domain Adaptation(UDA)は、セマンティックセグメンテーションのための畳み込みニューラルネットワークベースのアプローチがピクセルレベルの注釈付きデータに大きく依存するという課題に取り組むことができる。
そこで本稿では,十分に訓練されたソースモデルとラベルなしのターゲットドメインデータセットのみを適用可能な,意味セグメンテーションのためのソースフリーなドメイン適応フレームワークsfdaを提案する。
論文 参考訳(メタデータ) (2021-03-30T14:14:29Z) - Inferring Latent Domains for Unsupervised Deep Domain Adaptation [54.963823285456925]
Unsupervised Domain Adaptation (UDA)は、ラベル付きデータが利用できないターゲットドメインでモデルを学習する問題を指す。
本稿では,視覚データセット中の潜在ドメインを自動的に発見することにより,udaの問題に対処する新しい深層アーキテクチャを提案する。
提案手法を公開ベンチマークで評価し,最先端のドメイン適応手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-03-25T14:33:33Z) - Unsupervised Model Adaptation for Continual Semantic Segmentation [15.820660013260584]
本研究では,ラベル付きソースドメインを用いて訓練されたセマンティックセグメンテーションモデルを,ラベル付きターゲットドメインで適切に一般化するアルゴリズムを開発した。
我々は,アルゴリズムが有効である条件を理論的に分析し,説明する。
ベンチマーク適応タスクの実験では, 共同UDA手法と比較して, 競争性能が向上することを示した。
論文 参考訳(メタデータ) (2020-09-26T04:55:50Z) - Alleviating Semantic-level Shift: A Semi-supervised Domain Adaptation
Method for Semantic Segmentation [97.8552697905657]
このタスクの重要な課題は、ソースとターゲットドメイン間のデータ分散の相違を緩和する方法である。
本稿では,グローバルな視点とローカルな視点の両方から分布の整合性を促進できるASS(Alleviating Semantic-level Shift)を提案する。
GTA5、Cityscapes、Synthia、Cityscapesの2つのドメイン適応タスクにASSを適用します。
論文 参考訳(メタデータ) (2020-04-02T03:25:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。