論文の概要: Unsupervised Domain Adaptation with Multiple Domain Discriminators and
Adaptive Self-Training
- arxiv url: http://arxiv.org/abs/2004.12724v1
- Date: Mon, 27 Apr 2020 11:48:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 04:46:47.128375
- Title: Unsupervised Domain Adaptation with Multiple Domain Discriminators and
Adaptive Self-Training
- Title(参考訳): 複数領域判別器と適応自己学習を用いた教師なしドメイン適応
- Authors: Teo Spadotto, Marco Toldo, Umberto Michieli and Pietro Zanuttigh
- Abstract要約: Unsupervised Domain Adaptation (UDA)は、ソースドメインでトレーニングされたモデルの一般化能力を改善し、ラベル付きデータが使用できないターゲットドメインでうまく機能することを目的としている。
本稿では、合成データに基づいて訓練されたディープニューラルネットワークを、2つの異なるデータ分布間のドメインシフトに対処する実シーンに適用するアプローチを提案する。
- 参考スコア(独自算出の注目度): 22.366638308792734
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised Domain Adaptation (UDA) aims at improving the generalization
capability of a model trained on a source domain to perform well on a target
domain for which no labeled data is available. In this paper, we consider the
semantic segmentation of urban scenes and we propose an approach to adapt a
deep neural network trained on synthetic data to real scenes addressing the
domain shift between the two different data distributions. We introduce a novel
UDA framework where a standard supervised loss on labeled synthetic data is
supported by an adversarial module and a self-training strategy aiming at
aligning the two domain distributions. The adversarial module is driven by a
couple of fully convolutional discriminators dealing with different domains:
the first discriminates between ground truth and generated maps, while the
second between segmentation maps coming from synthetic or real world data. The
self-training module exploits the confidence estimated by the discriminators on
unlabeled data to select the regions used to reinforce the learning process.
Furthermore, the confidence is thresholded with an adaptive mechanism based on
the per-class overall confidence. Experimental results prove the effectiveness
of the proposed strategy in adapting a segmentation network trained on
synthetic datasets like GTA5 and SYNTHIA, to real world datasets like
Cityscapes and Mapillary.
- Abstract(参考訳): Unsupervised Domain Adaptation (UDA)は、ソースドメインでトレーニングされたモデルの一般化能力を改善し、ラベル付きデータが使用できないターゲットドメインでうまく機能することを目的としている。
本稿では,都市景観のセマンティックセグメンテーションを考察し,合成データに基づいて訓練されたディープニューラルネットワークを,2つの異なるデータ分布間のドメインシフトに対応する実際のシーンに適応させるアプローチを提案する。
本稿では,ラベル付き合成データに対する標準教師付き損失を敵モジュールによって支援する新しいudaフレームワークと,これら2つのドメイン分布の整合を目的とした自己学習戦略を提案する。
逆加群は、異なる領域を扱う2つの完全畳み込み型判別器によって駆動される: 1つ目は基底真理と生成地図を区別し、もう1つは合成または実世界データからのセグメンテーションマップである。
自己学習モジュールは、ラベルのないデータに基づいて識別者が推定した信頼度を利用して、学習プロセスを強化するために使用する領域を選択する。
さらに、クラス毎全体の信頼度に基づく適応機構により、信頼度をしきい値とする。
gta5やsynthiaのような合成データセットで訓練されたセグメンテーションネットワークをcityscapesやmapillaryのような現実世界のデータセットに適用する手法の有効性を実験的に証明した。
関連論文リスト
- Stratified Domain Adaptation: A Progressive Self-Training Approach for Scene Text Recognition [1.2878987353423252]
シーンテキスト認識(STR)において、教師なしドメイン適応(UDA)がますます普及している。
本稿では,StrDA(Stratified Domain Adaptation)アプローチを導入し,学習プロセスにおける領域ギャップの段階的エスカレーションについて検討する。
本稿では,データサンプルの分布外および領域判別レベルを推定するために,領域判別器を用いる新しい手法を提案する。
論文 参考訳(メタデータ) (2024-10-13T16:40:48Z) - PiPa++: Towards Unification of Domain Adaptive Semantic Segmentation via Self-supervised Learning [34.786268652516355]
教師なしドメイン適応セグメンテーションは、それらのドメインのラベル付きデータに頼ることなく、ターゲットドメイン上のモデルのセグメンテーション精度を向上させることを目的としている。
ソースドメイン(ラベル付きデータが利用可能な場所)とターゲットドメイン(ラベルなしデータのみが存在する場所)の特徴表現の整合を図る。
論文 参考訳(メタデータ) (2024-07-24T08:53:29Z) - IDA: Informed Domain Adaptive Semantic Segmentation [51.12107564372869]
クラスレベルのセグメンテーション性能に基づいてデータを混合する自己学習フレームワークであるDomain Informed Adaptation (IDA) モデルを提案する。
IDAモデルでは、クラスレベルの性能を期待信頼スコア(ECS)によって追跡し、動的スケジュールを用いて異なる領域のデータに対する混合比を決定する。
提案手法は,GTA-Vの都市景観への適応において1.1 mIoU,SynTHIAの都市への適応において0.9 mIoUのマージンで,最先端のUDA-SS法よりも優れる。
論文 参考訳(メタデータ) (2023-03-05T18:16:34Z) - Semi-supervised Domain Adaptation for Semantic Segmentation [3.946367634483361]
セマンティックセグメンテーションにおけるクロスドメインとイントラドメインのギャップに対処する2段階の半教師付き二重ドメイン適応(SSDDA)手法を提案する。
提案手法は,2つの共通合成-実合成セマンティックセグメンテーションベンチマークにおいて,最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-10-20T16:13:00Z) - Stagewise Unsupervised Domain Adaptation with Adversarial Self-Training
for Road Segmentation of Remote Sensing Images [93.50240389540252]
リモートセンシング画像からの道路セグメンテーションは、幅広い応用可能性を持つ課題である。
本稿では,この領域における領域シフト(DS)問題に対処するため,RoadDAと呼ばれる新たな段階的ドメイン適応モデルを提案する。
2つのベンチマーク実験の結果、RoadDAはドメインギャップを効率的に減らし、最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-08-28T09:29:14Z) - Source-Free Open Compound Domain Adaptation in Semantic Segmentation [99.82890571842603]
SF-OCDAでは、ターゲットモデルを学習するために、ソース事前訓練されたモデルとターゲットデータのみが利用可能である。
そこで我々は,Cross-Patch Style Swap (CPSS)を提案する。
提案手法は,C-Drivingデータセット上で最先端の結果を生成する。
論文 参考訳(メタデータ) (2021-06-07T08:38:41Z) - Contrastive Learning and Self-Training for Unsupervised Domain
Adaptation in Semantic Segmentation [71.77083272602525]
UDAはラベル付きソースドメインからラベルなしターゲットドメインへの効率的な知識伝達を試みている。
本稿では,領域にまたがるカテゴリ別センタロイドを適応させるコントラスト学習手法を提案する。
提案手法を自己学習で拡張し,メモリ効率の良い時間アンサンブルを用いて一貫性と信頼性の高い擬似ラベルを生成する。
論文 参考訳(メタデータ) (2021-05-05T11:55:53Z) - Domain Adaptation with Incomplete Target Domains [61.68950959231601]
本稿では、この新たなドメイン適応問題に対処するために、不完全データインプットに基づく Adversarial Network (IDIAN) モデルを提案する。
提案モデルでは,対象領域における部分的な観測に基づいて,欠落した特徴値を満たすデータ計算モジュールを設計する。
我々は、クロスドメインベンチマークタスクと、不完全なターゲットドメインを用いた実世界適応タスクの両方で実験を行う。
論文 参考訳(メタデータ) (2020-12-03T00:07:40Z) - Alleviating Semantic-level Shift: A Semi-supervised Domain Adaptation
Method for Semantic Segmentation [97.8552697905657]
このタスクの重要な課題は、ソースとターゲットドメイン間のデータ分散の相違を緩和する方法である。
本稿では,グローバルな視点とローカルな視点の両方から分布の整合性を促進できるASS(Alleviating Semantic-level Shift)を提案する。
GTA5、Cityscapes、Synthia、Cityscapesの2つのドメイン適応タスクにASSを適用します。
論文 参考訳(メタデータ) (2020-04-02T03:25:05Z) - Unsupervised Domain Adaptation for Mobile Semantic Segmentation based on
Cycle Consistency and Feature Alignment [28.61782696432711]
実世界と合成表現のドメインシフト問題に対処する新しいUnsupervised Domain Adaptation (UDA)戦略を提案する。
提案手法は,合成データに基づいて訓練されたセグメンテーションネットワークを実世界のシナリオに適用することで,優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-01-14T10:12:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。