論文の概要: Deep Co-Training with Task Decomposition for Semi-Supervised Domain
Adaptation
- arxiv url: http://arxiv.org/abs/2007.12684v5
- Date: Wed, 22 Sep 2021 21:55:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 06:12:58.863246
- Title: Deep Co-Training with Task Decomposition for Semi-Supervised Domain
Adaptation
- Title(参考訳): 半教師付き領域適応のためのタスク分解による深層協調訓練
- Authors: Luyu Yang, Yan Wang, Mingfei Gao, Abhinav Shrivastava, Kilian Q.
Weinberger, Wei-Lun Chao, Ser-Nam Lim
- Abstract要約: 半教師付きドメイン適応(SSDA)は、ラベル付きソースドメインからトレーニングされたモデルを、異なるが関連するターゲットドメインに適応させることを目的としている。
本稿では,SSDAタスクを対象ドメイン内の半教師付き学習(SSL)タスクと,ドメイン間の非教師付きドメイン適応(UDA)タスクの2つのサブタスクに明示的に分解することを提案する。
- 参考スコア(独自算出の注目度): 80.55236691733506
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semi-supervised domain adaptation (SSDA) aims to adapt models trained from a
labeled source domain to a different but related target domain, from which
unlabeled data and a small set of labeled data are provided. Current methods
that treat source and target supervision without distinction overlook their
inherent discrepancy, resulting in a source-dominated model that has not
effectively used the target supervision. In this paper, we argue that the
labeled target data needs to be distinguished for effective SSDA, and propose
to explicitly decompose the SSDA task into two sub-tasks: a semi-supervised
learning (SSL) task in the target domain and an unsupervised domain adaptation
(UDA) task across domains. By doing so, the two sub-tasks can better leverage
the corresponding supervision and thus yield very different classifiers. To
integrate the strengths of the two classifiers, we apply the well-established
co-training framework, in which the two classifiers exchange their high
confident predictions to iteratively "teach each other" so that both
classifiers can excel in the target domain. We call our approach Deep
Co-training with Task decomposition (DeCoTa). DeCoTa requires no adversarial
training and is easy to implement. Moreover, DeCoTa is well-founded on the
theoretical condition of when co-training would succeed. As a result, DeCoTa
achieves state-of-the-art results on several SSDA datasets, outperforming the
prior art by a notable 4% margin on DomainNet. Code is available at
https://github.com/LoyoYang/DeCoTa
- Abstract(参考訳): semi-supervised domain adaptation (ssda) はラベル付きソースドメインからトレーニングされたモデルを、ラベル付きデータとラベル付きデータの小さなセットを提供する異なるが関連するターゲットドメインに適用することを目的としている。
ソース管理とターゲット管理を区別せずに処理する現在の手法は、ソース管理を効果的に利用していないソース管理モデルをもたらす。
本稿では、ラベル付き対象データを有効なSSDAのために区別する必要があることを論じ、SSDAタスクをターゲットドメイン内の半教師付き学習(SSL)タスクとドメイン間の非教師付きドメイン適応(UDA)タスクの2つのサブタスクに明示的に分解することを提案する。
これにより、2つのサブタスクは、対応する監視をよりよく活用し、非常に異なる分類子を得ることができる。
2つの分類器の強みを統合するために,2つの分類器が互いに反復的に「教え合う」ために高信頼な予測を交換し,双方の分類器が対象領域で排他的になるように,確立された協調学習フレームワークを適用した。
私たちはDeep Co-training with Task decomposition (DeCoTa)と呼んでいる。
DeCoTaは敵の訓練を必要とせず、簡単に実装できる。
さらに、DeCoTaはコトレーニングが成功するという理論条件に基づいている。
その結果、DeCoTaはいくつかのSSDAデータセットで最先端の結果を達成し、DomainNetで注目すべき4%のマージンで先行技術を上回った。
コードはhttps://github.com/LoyoYang/DeCoTaで入手できる。
関連論文リスト
- Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - ACT: Semi-supervised Domain-adaptive Medical Image Segmentation with
Asymmetric Co-training [34.017031149886556]
非教師なしドメイン適応(UDA)は、ソースとターゲットドメイン間のドメインシフトを軽減するために大いに研究されてきた。
本稿では,ラベル付けされていないターゲットデータに加えて,ラベル付きソースデータとターゲットドメインデータの両方を統一的に活用することを提案する。
本稿では、これらのサブセットを統合し、ソースドメインデータの支配を回避するための、新しい非対称コトレーニング(ACT)フレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-05T23:48:00Z) - Semi-supervised Domain Adaptive Structure Learning [72.01544419893628]
半教師付きドメイン適応 (SSDA) は,1) アノテーションの低いデータに過度に適合する手法と,2) ドメイン間の分散シフトの両方を克服しなければならない課題である。
SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T06:11:16Z) - Contrastive Learning and Self-Training for Unsupervised Domain
Adaptation in Semantic Segmentation [71.77083272602525]
UDAはラベル付きソースドメインからラベルなしターゲットドメインへの効率的な知識伝達を試みている。
本稿では,領域にまたがるカテゴリ別センタロイドを適応させるコントラスト学習手法を提案する。
提案手法を自己学習で拡張し,メモリ効率の良い時間アンサンブルを用いて一貫性と信頼性の高い擬似ラベルを生成する。
論文 参考訳(メタデータ) (2021-05-05T11:55:53Z) - Curriculum Graph Co-Teaching for Multi-Target Domain Adaptation [78.28390172958643]
マルチターゲットドメイン適応(MTDA)における複数のドメインシフトを軽減するのに役立つ2つの重要な側面を同定する。
本論文では,二重分類器ヘッドを用いたCGCT(Curriculum Graph Co-Teaching)を提案する。そのうちの1つがグラフ畳み込みネットワーク(GCN)である。
ドメインラベルが利用可能になると、まずより簡単なターゲットドメインに適応し、続いて難しいドメインに適応する逐次適応戦略であるDomain-Aware Curriculum Learning (DCL)を提案する。
論文 参考訳(メタデータ) (2021-04-01T23:41:41Z) - Adversarial Learning for Zero-shot Domain Adaptation [31.334196673143257]
ゼロショットドメイン適応は、データサンプルもラベルもターゲットドメインでのパラメータ学習には使用できない問題である。
本稿では,非関係なタスクから関心のあるタスクへのドメインシフトを移譲することで,ZSDAの新たな手法を提案する。
提案手法をベンチマークデータセット上で評価し,最先端の性能を実現する。
論文 参考訳(メタデータ) (2020-09-11T03:41:32Z) - Alleviating Semantic-level Shift: A Semi-supervised Domain Adaptation
Method for Semantic Segmentation [97.8552697905657]
このタスクの重要な課題は、ソースとターゲットドメイン間のデータ分散の相違を緩和する方法である。
本稿では,グローバルな視点とローカルな視点の両方から分布の整合性を促進できるASS(Alleviating Semantic-level Shift)を提案する。
GTA5、Cityscapes、Synthia、Cityscapesの2つのドメイン適応タスクにASSを適用します。
論文 参考訳(メタデータ) (2020-04-02T03:25:05Z) - Partially-Shared Variational Auto-encoders for Unsupervised Domain
Adaptation with Target Shift [11.873435088539459]
本稿では,教師なしドメイン適応(UDA)の目標シフトを考慮した新しいアプローチを提案する。
提案手法は部分共有変分オートエンコーダ (PS-VAE) であり, 特徴分布マッチングの代わりにペアワイズな特徴アライメントを用いる。
PS-VAEは、ラベル関連コンテンツを保存しながら、CycleGANベースのアーキテクチャで各サンプルの変換ドメインを相互変換する。
論文 参考訳(メタデータ) (2020-01-22T06:41:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。