論文の概要: DiGA: Distil to Generalize and then Adapt for Domain Adaptive Semantic
Segmentation
- arxiv url: http://arxiv.org/abs/2304.02222v1
- Date: Wed, 5 Apr 2023 04:32:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-06 13:29:18.147898
- Title: DiGA: Distil to Generalize and then Adapt for Domain Adaptive Semantic
Segmentation
- Title(参考訳): DiGA: 一般化とドメイン適応セマンティックセマンティックセグメンテーションへの適応
- Authors: Fengyi Shen, Akhil Gurram, Ziyuan Liu, He Wang, Alois Knoll
- Abstract要約: ドメイン適応型セマンティックセグメンテーション法は、ウォームアップと自己学習段階からなるステージワイズトレーニングを一般的に利用する。
本稿では,新しい対称知識蒸留モジュールにより,ウォームアップ段階における敵の訓練を置き換えることを提案する。
自己学習段階において、上記しきい値問題を緩和するために、しきい値のない動的擬似ラベル選択機構を提案する。
- 参考スコア(独自算出の注目度): 6.395550661144153
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Domain adaptive semantic segmentation methods commonly utilize stage-wise
training, consisting of a warm-up and a self-training stage. However, this
popular approach still faces several challenges in each stage: for warm-up, the
widely adopted adversarial training often results in limited performance gain,
due to blind feature alignment; for self-training, finding proper categorical
thresholds is very tricky. To alleviate these issues, we first propose to
replace the adversarial training in the warm-up stage by a novel symmetric
knowledge distillation module that only accesses the source domain data and
makes the model domain generalizable. Surprisingly, this domain generalizable
warm-up model brings substantial performance improvement, which can be further
amplified via our proposed cross-domain mixture data augmentation technique.
Then, for the self-training stage, we propose a threshold-free dynamic
pseudo-label selection mechanism to ease the aforementioned threshold problem
and make the model better adapted to the target domain. Extensive experiments
demonstrate that our framework achieves remarkable and consistent improvements
compared to the prior arts on popular benchmarks. Codes and models are
available at https://github.com/fy-vision/DiGA
- Abstract(参考訳): ドメイン適応型セマンティックセグメンテーション法は、ウォームアップと自己学習段階からなるステージワイズトレーニングを一般的に利用する。
しかし、この一般的なアプローチは、各ステージにおいていくつかの課題に直面している: ウォームアップでは、広く採用されている敵のトレーニングは、視覚的特徴のアライメントによって、パフォーマンスが制限されることが多い。
これらの問題を緩和するため、まず、ウォームアップ段階での敵対的トレーニングを、ソースドメインデータのみにアクセスし、モデルドメインを一般化可能な、新しい対称知識蒸留モジュールに置き換えることを提案する。
驚くべきことに、このドメインの一般化可能なウォームアップモデルは、性能を大幅に向上させ、提案したクロスドメイン混合データ拡張技術によりさらに増幅することができる。
そして, 自己学習段階において, 上記のしきい値問題を緩和し, モデルが対象領域に適合するように, しきい値のない動的擬似ラベル選択機構を提案する。
大規模な実験により、我々のフレームワークは、一般的なベンチマークの先行技術と比較して、目覚ましい、一貫した改善を達成している。
コードとモデルはhttps://github.com/fy-vision/digaで入手できる。
関連論文リスト
- StyDeSty: Min-Max Stylization and Destylization for Single Domain Generalization [85.18995948334592]
単一のドメインの一般化(単一DG)は、単一のトレーニングドメインからのみ見えないドメインに一般化可能な堅牢なモデルを学ぶことを目的としている。
最先端のアプローチは、主に新しいデータを合成するために、敵対的な摂動やスタイルの強化といったデータ拡張に頼っている。
データ拡張の過程で、ソースと擬似ドメインのアライメントを明示的に考慮したemphStyDeStyを提案する。
論文 参考訳(メタデータ) (2024-06-01T02:41:34Z) - NormAUG: Normalization-guided Augmentation for Domain Generalization [60.159546669021346]
ディープラーニングのためのNormAUG(Normalization-guided Augmentation)と呼ばれるシンプルで効果的な手法を提案する。
本手法は特徴レベルで多様な情報を導入し,主経路の一般化を改善する。
テスト段階では、アンサンブル戦略を利用して、モデルの補助経路からの予測を組み合わせ、さらなる性能向上を図る。
論文 参考訳(メタデータ) (2023-07-25T13:35:45Z) - Prompting Diffusion Representations for Cross-Domain Semantic
Segmentation [101.04326113360342]
拡散事前学習は、セマンティックセグメンテーションのための並外れた領域一般化結果を達成する。
本研究では,シーンプロンプトとプロンプトランダム化戦略を導入し,セグメンテーションヘッドを訓練する際に,ドメイン不変情報をさらに混乱させる。
論文 参考訳(メタデータ) (2023-07-05T09:28:25Z) - ViDA: Homeostatic Visual Domain Adapter for Continual Test Time Adaptation [48.039156140237615]
目標ドメインの継続的な変更に事前訓練されたモデルを適用するために、連続的なテスト時間適応タスクを提案する。
我々はCTTA用のVisual Domain Adapter (ViDA) を設計し、ドメイン固有知識とドメイン共有知識の両方を明示的に扱う。
提案手法は,CTTAタスクの分類とセグメント化の両方において,最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-06-07T11:18:53Z) - Continual Unsupervised Domain Adaptation for Semantic Segmentation using
a Class-Specific Transfer [9.46677024179954]
セグメンテーションモデルは 目に見えない領域に一般化しません
2つのクラス条件のAdaIN層を組み込んだ軽量なスタイル転送フレームワークを提案する。
合成シーケンスに対する我々のアプローチを広く検証し、さらに実領域からなる挑戦的なシーケンスを提案する。
論文 参考訳(メタデータ) (2022-08-12T21:30:49Z) - Learning Instance-Specific Adaptation for Cross-Domain Segmentation [79.61787982393238]
クロスドメイン画像セグメンテーションのためのテスト時間適応法を提案する。
テスト時に新しい目に見えないインスタンスが与えられると、インスタンス固有のBatchNormキャリブレーションを実行することで、事前トレーニングされたモデルを適用します。
論文 参考訳(メタデータ) (2022-03-30T17:59:45Z) - Style Mixing and Patchwise Prototypical Matching for One-Shot
Unsupervised Domain Adaptive Semantic Segmentation [21.01132797297286]
ワンショットの教師なしドメイン適応では、セグメンタはトレーニング中にラベルなしのターゲットイメージを1つしか見ることができない。
このような計算負担を効果的に軽減できるOSUDA法を提案する。
提案手法は,ドメイン適応型セマンティックセグメンテーションのための2つの一般的なベンチマーク上で,最先端性能を実現する。
論文 参考訳(メタデータ) (2021-12-09T02:47:46Z) - Shallow Features Guide Unsupervised Domain Adaptation for Semantic
Segmentation at Class Boundaries [21.6953660626021]
ディープニューラルネットワークは、合成から現実への適応を行う際に、新しいドメインに対して一般化することができない。
本研究では,より鋭い予測を得られるような,新しい低レベル適応戦略を提案する。
また、自己学習に擬似ラベルを用いる場合、意味境界に典型的なノイズを緩和する効果的なデータ拡張も導入する。
論文 参考訳(メタデータ) (2021-10-06T15:05:48Z) - Stagewise Unsupervised Domain Adaptation with Adversarial Self-Training
for Road Segmentation of Remote Sensing Images [93.50240389540252]
リモートセンシング画像からの道路セグメンテーションは、幅広い応用可能性を持つ課題である。
本稿では,この領域における領域シフト(DS)問題に対処するため,RoadDAと呼ばれる新たな段階的ドメイン適応モデルを提案する。
2つのベンチマーク実験の結果、RoadDAはドメインギャップを効率的に減らし、最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-08-28T09:29:14Z) - Unsupervised Intra-domain Adaptation for Semantic Segmentation through
Self-Supervision [73.76277367528657]
畳み込みニューラルネットワークに基づくアプローチは、セマンティックセグメンテーションにおいて顕著な進歩を遂げた。
この制限に対処するために、グラフィックエンジンから生成された注釈付きデータを使用してセグメンテーションモデルをトレーニングする。
ドメイン間およびドメイン間ギャップを最小化する2段階の自己教師付きドメイン適応手法を提案する。
論文 参考訳(メタデータ) (2020-04-16T15:24:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。