論文の概要: Semi-supervised Domain Adaptive Structure Learning
- arxiv url: http://arxiv.org/abs/2112.06161v1
- Date: Sun, 12 Dec 2021 06:11:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-14 15:15:14.355346
- Title: Semi-supervised Domain Adaptive Structure Learning
- Title(参考訳): 半教師付きドメイン適応構造学習
- Authors: Can Qin, Lichen Wang, Qianqian Ma, Yu Yin, Huan Wang, Yun Fu
- Abstract要約: 半教師付きドメイン適応 (SSDA) は,1) アノテーションの低いデータに過度に適合する手法と,2) ドメイン間の分散シフトの両方を克服しなければならない課題である。
SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
- 参考スコア(独自算出の注目度): 72.01544419893628
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semi-supervised domain adaptation (SSDA) is quite a challenging problem
requiring methods to overcome both 1) overfitting towards poorly annotated data
and 2) distribution shift across domains. Unfortunately, a simple combination
of domain adaptation (DA) and semi-supervised learning (SSL) methods often fail
to address such two objects because of training data bias towards labeled
samples. In this paper, we introduce an adaptive structure learning method to
regularize the cooperation of SSL and DA. Inspired by the multi-views learning,
our proposed framework is composed of a shared feature encoder network and two
classifier networks, trained for contradictory purposes. Among them, one of the
classifiers is applied to group target features to improve intra-class density,
enlarging the gap of categorical clusters for robust representation learning.
Meanwhile, the other classifier, serviced as a regularizer, attempts to scatter
the source features to enhance the smoothness of the decision boundary. The
iterations of target clustering and source expansion make the target features
being well-enclosed inside the dilated boundary of the corresponding source
points. For the joint address of cross-domain features alignment and partially
labeled data learning, we apply the maximum mean discrepancy (MMD) distance
minimization and self-training (ST) to project the contradictory structures
into a shared view to make the reliable final decision. The experimental
results over the standard SSDA benchmarks, including DomainNet and Office-home,
demonstrate both the accuracy and robustness of our method over the
state-of-the-art approaches.
- Abstract(参考訳): 半教師付きドメイン適応(SSDA)は、両方を克服する手法を必要とする非常に難しい問題である。
1)貧弱な注釈データへの過剰適合、及び
2)ドメイン間の分散シフト。
残念ながら、ドメイン適応(DA)と半教師付き学習(SSL)の単純な組み合わせは、ラベル付きサンプルに対してデータバイアスをトレーニングするため、そのような2つのオブジェクトに対処できないことが多い。
本稿では,SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
マルチビュー学習に触発され,提案フレームワークは共有特徴エンコーダネットワークと2つの分類器ネットワークで構成され,矛盾する目的のために訓練されている。
このうち,分類器の1つをグループターゲット機能に適用し,クラス内密度を改善し,ロバスト表現学習のためのカテゴリクラスタのギャップを拡大した。
一方、正規化器として機能する他の分類器は、決定境界の滑らかさを高めるためにソース機能を分散させようとする。
ターゲットクラスタリングとソース拡張の反復により、ターゲット特徴は対応するソースポイントの拡張境界内で十分に隠蔽される。
クロスドメイン機能アライメントと部分ラベル付きデータ学習の合同アドレスに対しては,最大平均誤差最小化(MMD)と自己学習(ST)を適用し,矛盾する構造を共有ビューに投影し,信頼性の高い最終決定を行う。
DomainNet や Office-home など,標準的な SSDA ベンチマークに対する実験結果は,最先端アプローチに対する我々の手法の正確性と堅牢性を示している。
関連論文リスト
- Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - Distribution Regularized Self-Supervised Learning for Domain Adaptation
of Semantic Segmentation [3.284878354988896]
本稿では,セマンティックセグメンテーションの自己教師付きドメイン適応のための画素レベル分布正規化スキーム(DRSL)を提案する。
典型的な環境では、分類損失はセマンティックセグメンテーションモデルにクラス間のバリエーションをキャプチャする表現を欲しがらせるように強制する。
クラス認識型マルチモーダル分布学習により,ピクセルレベルのクラス内変動を捉える。
論文 参考訳(メタデータ) (2022-06-20T09:52:49Z) - Semi-supervised Domain Adaptation for Semantic Segmentation [3.946367634483361]
セマンティックセグメンテーションにおけるクロスドメインとイントラドメインのギャップに対処する2段階の半教師付き二重ドメイン適応(SSDDA)手法を提案する。
提案手法は,2つの共通合成-実合成セマンティックセグメンテーションベンチマークにおいて,最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-10-20T16:13:00Z) - HSVA: Hierarchical Semantic-Visual Adaptation for Zero-Shot Learning [74.76431541169342]
ゼロショット学習(ZSL)は、目に見えないクラス認識の問題に取り組み、目に見えないクラスから目に見えないクラスに意味的な知識を移す。
本稿では,意味領域と視覚領域を協調させる新しい階層型意味視覚適応(HSVA)フレームワークを提案する。
4つのベンチマークデータセットの実験では、HSVAは従来のZSLと一般的なZSLの両方で優れた性能を示す。
論文 参考訳(メタデータ) (2021-09-30T14:27:50Z) - Towards Uncovering the Intrinsic Data Structures for Unsupervised Domain
Adaptation using Structurally Regularized Deep Clustering [119.88565565454378]
Unsupervised Domain Adapt (UDA) は、ターゲットドメイン上のラベルなしデータの予測を行う分類モデルを学ぶことである。
本稿では,対象データの正規化判別クラスタリングと生成クラスタリングを統合する構造的正規化深層クラスタリングのハイブリッドモデルを提案する。
提案するH-SRDCは, インダクティブ設定とトランスダクティブ設定の両方において, 既存の手法よりも優れている。
論文 参考訳(メタデータ) (2020-12-08T08:52:00Z) - Alleviating Semantic-level Shift: A Semi-supervised Domain Adaptation
Method for Semantic Segmentation [97.8552697905657]
このタスクの重要な課題は、ソースとターゲットドメイン間のデータ分散の相違を緩和する方法である。
本稿では,グローバルな視点とローカルな視点の両方から分布の整合性を促進できるASS(Alleviating Semantic-level Shift)を提案する。
GTA5、Cityscapes、Synthia、Cityscapesの2つのドメイン適応タスクにASSを適用します。
論文 参考訳(メタデータ) (2020-04-02T03:25:05Z) - Contradictory Structure Learning for Semi-supervised Domain Adaptation [67.89665267469053]
現在の逆順応法は、クロスドメインの特徴を整列させようとする。
1)条件分布ミスマッチ、2)決定境界のソース領域へのバイアス。
本稿では,対向構造の学習を統一することで,半教師付きドメイン適応のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-06T22:58:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。