論文の概要: Unsupervised Domain Adaptation with Progressive Adaptation of Subspaces
- arxiv url: http://arxiv.org/abs/2009.00520v1
- Date: Tue, 1 Sep 2020 15:40:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 00:36:43.705389
- Title: Unsupervised Domain Adaptation with Progressive Adaptation of Subspaces
- Title(参考訳): 部分空間のプログレッシブ適応による教師なし領域適応
- Authors: Weikai Li and Songcan Chen
- Abstract要約: Unsupervised Domain Adaptation (UDA)は、ラベル付きソースドメインからの知識をドメインシフトで転送することで、ラベル付きターゲットドメインを分類することを目的としている。
そこで我々は,これらの直観を利用して,信頼性の高い擬似ラベルを徐々に取得する,プログレッシブ・アダプティブ・オブ・サブスペース・アプローチ (PAS) という新しいUDA手法を提案する。
我々の徹底的な評価は、PASが一般的なUDAに有効であるだけでなく、より挑戦的な部分的ドメイン適応(PDA)の状況において、最先端の技術を上回っていることを示している。
- 参考スコア(独自算出の注目度): 26.080102941802107
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised Domain Adaptation (UDA) aims to classify unlabeled target domain
by transferring knowledge from labeled source domain with domain shift. Most of
the existing UDA methods try to mitigate the adverse impact induced by the
shift via reducing domain discrepancy. However, such approaches easily suffer a
notorious mode collapse issue due to the lack of labels in target domain.
Naturally, one of the effective ways to mitigate this issue is to reliably
estimate the pseudo labels for target domain, which itself is hard. To overcome
this, we propose a novel UDA method named Progressive Adaptation of Subspaces
approach (PAS) in which we utilize such an intuition that appears much
reasonable to gradually obtain reliable pseudo labels. Speci fically, we
progressively and steadily refine the shared subspaces as bridge of knowledge
transfer by adaptively anchoring/selecting and leveraging those target samples
with reliable pseudo labels. Subsequently, the refined subspaces can in turn
provide more reliable pseudo-labels of the target domain, making the mode
collapse highly mitigated. Our thorough evaluation demonstrates that PAS is not
only effective for common UDA, but also outperforms the state-of-the arts for
more challenging Partial Domain Adaptation (PDA) situation, where the source
label set subsumes the target one.
- Abstract(参考訳): Unsupervised Domain Adaptation (UDA)は、ラベル付きソースドメインからの知識をドメインシフトで転送することで、ラベル付きターゲットドメインを分類することを目的としている。
既存のUDA手法の多くは、ドメインの差を減らし、シフトによって引き起こされる悪影響を緩和しようとする。
しかし、そのようなアプローチは、ターゲットドメインにラベルがないため、悪名高いモード崩壊の問題に容易に直面する。
当然、この問題を軽減する効果的な方法の1つは、ターゲットドメインの擬似ラベルを確実に見積もることである。
これを解決するために,我々は,信頼度の高い擬似ラベルを段階的に取得する上で,より合理的と思われる直観を生かした,Progressive Adaptation of Subspaces approach (PAS) と呼ばれる新しいUDA手法を提案する。
概略的に、我々は、これらのターゲットサンプルを信頼できる擬似ラベルで適応的にアンカー/選択し、活用することにより、知識伝達の橋渡しとして、段階的に、着実に共有サブスペースを洗練する。
その後、洗練された部分空間はターゲット領域のより信頼性の高い擬似ラベルを提供することができ、モードの崩壊を軽減できる。
我々の徹底的な評価は、PASが一般的なUDAに有効であるだけでなく、ソースラベルセットが対象とするPDA(Partial Domain Adaptation)の状況において、最先端の技術よりも優れていることを示している。
関連論文リスト
- Overcoming Negative Transfer by Online Selection: Distant Domain Adaptation for Fault Diagnosis [42.85741244467877]
遠距離領域適応問題」という用語は、ラベル付きソースドメインからラベル付き未ラベルのターゲットドメインへの適応の難しさを記述している。
この問題は、ソースドメインからの外部知識がターゲットドメインのパフォーマンスに悪影響を及ぼす、負の転送のリスクを示す。
この課題に対応するために、我々は、新しいオンライン選択適応(OSAA)アプローチを提案する。
論文 参考訳(メタデータ) (2024-05-25T07:17:47Z) - Imbalanced Open Set Domain Adaptation via Moving-threshold Estimation
and Gradual Alignment [58.56087979262192]
Open Set Domain Adaptation (OSDA) は、よくラベルされたソースドメインから未ラベルのターゲットドメインに知識を転送することを目的としている。
OSDA法の性能はドメイン内クラス不均衡とドメイン間ラベルシフトで大幅に低下する。
ラベルシフトによって生じる負の効果を軽減するために,オープンセット移動閾値推定とグラデーショナルアライメント(OMEGA)を提案する。
論文 参考訳(メタデータ) (2023-03-08T05:55:02Z) - Cyclically Disentangled Feature Translation for Face Anti-spoofing [61.70377630461084]
循環不整合特徴変換ネットワーク(CDFTN)と呼ばれる新しい領域適応手法を提案する。
CDFTNは、(1)ソースドメイン不変の生長特徴と2)ドメイン固有のコンテンツ特徴とを持つ擬似ラベル付きサンプルを生成する。
ソースドメインラベルの監督の下で、合成擬似ラベル付き画像に基づいてロバスト分類器を訓練する。
論文 参考訳(メタデータ) (2022-12-07T14:12:34Z) - LE-UDA: Label-efficient unsupervised domain adaptation for medical image
segmentation [24.655779957716558]
ラベル有効非教師付きドメイン適応(LE-UDA)と呼ばれる新規で汎用的なフレームワークを提案する。
LE-UDAでは、両ドメイン間の知識伝達のための自己認識一貫性と、UDAの機能アライメントを向上するために自己認識学習モジュールを構築している。
実験結果から,提案するLE-UDAは,限られたソースラベルを有効活用し,ドメイン間セグメンテーション性能を向上し,文献における最先端のUDAアプローチより優れていることが示された。
論文 参考訳(メタデータ) (2022-12-05T07:47:35Z) - CA-UDA: Class-Aware Unsupervised Domain Adaptation with Optimal
Assignment and Pseudo-Label Refinement [84.10513481953583]
教師なしドメイン適応(Unsupervised domain adapt, UDA)は、ターゲットデータに欠けているラベルのサロゲートとして、優れた擬似ラベルの選択に焦点を当てる。
ソースとターゲットドメインの共有ネットワークが通常、擬似ラベルの選択に使用されるため、擬似ラベルを劣化させるソースドメインバイアスは依然として存在する。
本稿では, 擬似ラベルの品質向上のためのCA-UDAを提案し, 最適課題, 擬似ラベル改善戦略, クラス対応ドメインアライメントを提案する。
論文 参考訳(メタデータ) (2022-05-26T18:45:04Z) - Understanding the Limits of Unsupervised Domain Adaptation via Data
Poisoning [66.80663779176979]
教師なしドメイン適応(UDA)は、対象ドメインラベルなしでドメイン間の学習を可能にする。
本稿では,ソース領域誤りの最小化と,ターゲット領域誤りの低減を保証するための限界分布ミスマッチの有効性を示す。
そこで本研究では,UDA手法を誤用した新たなデータ中毒攻撃手法を提案する。
論文 参考訳(メタデータ) (2021-07-08T15:51:14Z) - CLDA: Contrastive Learning for Semi-Supervised Domain Adaptation [1.2691047660244335]
Unsupervised Domain Adaptation (UDA) は、ラベル付きソース分布とラベル付きターゲット分布との整合を目標とし、ドメイン不変な予測モデルを得る。
半教師付きドメイン適応(CLDA)のためのコントラスト学習フレームワークを提案する。
CLDAは上記のすべてのデータセットに対して最先端の結果を達成する。
論文 参考訳(メタデータ) (2021-06-30T20:23:19Z) - Adaptive Pseudo-Label Refinement by Negative Ensemble Learning for
Source-Free Unsupervised Domain Adaptation [35.728603077621564]
既存のUnsupervised Domain Adaptation (UDA)メソッドは、トレーニング中にソースとターゲットのドメインデータを同時に利用できると仮定する。
訓練済みのソースモデルは、よく知られたドメインシフトの問題により、ターゲットに対して性能が悪くても、常に利用可能であると考えられている。
適応型ノイズフィルタリングと擬似ラベル改良に取り組むための統一手法を提案する。
論文 参考訳(メタデータ) (2021-03-29T22:18:34Z) - Effective Label Propagation for Discriminative Semi-Supervised Domain
Adaptation [76.41664929948607]
半教師付き領域適応(SSDA)法は,大規模な画像分類タスクにおいて大きな可能性を示している。
本稿では、ドメイン間およびドメイン内セマンティック情報を効果的に伝達することにより、この問題に対処する新しい効果的な方法を提案する。
ソースコードと事前訓練されたモデルも間もなくリリースされる予定です。
論文 参考訳(メタデータ) (2020-12-04T14:28:19Z) - Learning Target Domain Specific Classifier for Partial Domain Adaptation [85.71584004185031]
非教師付きドメイン適応(UDA)は、ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送する際の分散不一致を低減することを目的としている。
本稿では,ターゲットラベル空間をソースラベル空間に仮定する,より現実的なUDAシナリオに焦点を当てる。
論文 参考訳(メタデータ) (2020-08-25T02:28:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。