論文の概要: Towards Trustworthy Unsupervised Domain Adaptation: A Representation Learning Perspective for Enhancing Robustness, Discrimination, and Generalization
- arxiv url: http://arxiv.org/abs/2406.13180v1
- Date: Wed, 19 Jun 2024 03:19:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-21 23:28:56.391992
- Title: Towards Trustworthy Unsupervised Domain Adaptation: A Representation Learning Perspective for Enhancing Robustness, Discrimination, and Generalization
- Title(参考訳): 信頼できる教師なしドメイン適応を目指して--ロバスト性、差別性、一般化を促進するための表現学習の視点
- Authors: Jia-Li Yin, Haoyuan Zheng, Ximeng Liu,
- Abstract要約: Robust Unsupervised Domain Adaptation (RoUDA)は、クリーンなだけでなく、堅牢なドメイン間の知識伝達を実現することを目的としている。
我々は, 相互情報理論(MIRoUDA)を利用した新しいアルゴリズムを設計する。
我々の手法は最先端の技術をはるかに上回っている。
- 参考スコア(独自算出の注目度): 31.176062426569068
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robust Unsupervised Domain Adaptation (RoUDA) aims to achieve not only clean but also robust cross-domain knowledge transfer from a labeled source domain to an unlabeled target domain. A number of works have been conducted by directly injecting adversarial training (AT) in UDA based on the self-training pipeline and then aiming to generate better adversarial examples (AEs) for AT. Despite the remarkable progress, these methods only focus on finding stronger AEs but neglect how to better learn from these AEs, thus leading to unsatisfied results. In this paper, we investigate robust UDA from a representation learning perspective and design a novel algorithm by utilizing the mutual information theory, dubbed MIRoUDA. Specifically, through mutual information optimization, MIRoUDA is designed to achieve three characteristics that are highly expected in robust UDA, i.e., robustness, discrimination, and generalization. We then propose a dual-model framework accordingly for robust UDA learning. Extensive experiments on various benchmarks verify the effectiveness of the proposed MIRoUDA, in which our method surpasses the state-of-the-arts by a large margin.
- Abstract(参考訳): Robust Unsupervised Domain Adaptation (RoUDA)は、クリーンなだけでなく、ラベル付きソースドメインからラベル付きターゲットドメインへの堅牢なクロスドメイン知識移行を実現することを目的としている。
自己学習パイプラインをベースとしたUDAの対人訓練(AT)を直接注入し,ATのためのより良い対人訓練(AE)を作成することで,多くの研究がなされている。
顕著な進歩にもかかわらず、これらの手法はより強力なAEを見つけることにのみ焦点をあてるが、これらのAEからより良く学ぶ方法を無視し、不満足な結果をもたらす。
本稿では,表現学習の観点から頑健なUDAを調査し,相互情報理論(MIRoUDA)を利用して新しいアルゴリズムを設計する。
具体的には、相互情報最適化により、ロバストなUDA、すなわちロバスト性、差別、一般化の3つの特性を達成するように設計されている。
次に、堅牢な UDA 学習のための二重モデルフレームワークを提案する。
様々なベンチマーク実験により提案したMIRoUDAの有効性が検証された。
関連論文リスト
- Prompt-based Distribution Alignment for Unsupervised Domain Adaptation [42.77798810726824]
教師なし学習型視覚言語モデル(VLM)は、ソースドメインとターゲットドメイン間の分布差を著しく低減できることを示す。
このようなモデルを下流のUDAタスクに直接デプロイする上での大きな課題は、迅速なエンジニアリングである。
本稿では,ドメイン知識を素早い学習に組み込むためのPDA手法を提案する。
論文 参考訳(メタデータ) (2023-12-15T06:15:04Z) - Ladder-of-Thought: Using Knowledge as Steps to Elevate Stance Detection [73.31406286956535]
姿勢検出タスクにLadder-of-Thought(LoT)を導入する。
LoTは、小さなLMに高品質な外部知識を同化させ、生成した中間的論理を精査するように指示する。
実験では, 姿勢検出タスクにおけるCoTのGPT-3.5よりも16%改善し, 10%向上した。
論文 参考訳(メタデータ) (2023-08-31T14:31:48Z) - Open-Set Domain Adaptation with Visual-Language Foundation Models [51.49854335102149]
非教師なしドメイン適応(UDA)は、ソースドメインからラベルのないデータを持つターゲットドメインへの知識の転送に非常に効果的であることが証明されている。
オープンセットドメイン適応(ODA)は、トレーニングフェーズ中にこれらのクラスを識別する潜在的なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-07-30T11:38:46Z) - Can We Evaluate Domain Adaptation Models Without Target-Domain Labels? [36.05871459064825]
教師なしドメイン適応(Unsupervised domain adapt, UDA)は、ラベル豊富なソースドメインでトレーニングされたモデルをラベルなしのターゲットドメインに適応させる。
現実のシナリオでは、ターゲットドメインラベルがないため、UDAモデルの性能を評価するのは難しい。
これらの問題に対処するため,textitTransfer Scoreと呼ばれる新しいメトリクスを提案する。
論文 参考訳(メタデータ) (2023-05-30T03:36:40Z) - AVATAR: Adversarial self-superVised domain Adaptation network for TARget
domain [11.764601181046496]
本稿では,未ラベル対象領域データの予測のための教師なし領域適応(UDA)手法を提案する。
本稿では,AVATAR(Adversarial Self-superVised Domain Adaptation Network for the TARget domain)アルゴリズムを提案する。
提案手法は,3つのUDAベンチマークにおいて,最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2023-04-28T20:31:56Z) - Prior Knowledge Guided Unsupervised Domain Adaptation [82.9977759320565]
本稿では,対象とするクラス分布に関する事前知識を利用できる知識誘導型非教師付きドメイン適応(KUDA)設定を提案する。
特に,対象領域におけるクラス分布に関する2種類の事前知識について考察する。
このような事前知識を用いて生成した擬似ラベルを精査する修正モジュールを提案する。
論文 参考訳(メタデータ) (2022-07-18T18:41:36Z) - Exploring Adversarially Robust Training for Unsupervised Domain
Adaptation [71.94264837503135]
Unsupervised Domain Adaptation (UDA)メソッドは、ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送することを目的としている。
本稿では、UDAのドメイン不変性を学習しながら、ATを介してラベルなしデータのロバスト性を高める方法について検討する。
本稿では,ARTUDA と呼ばれる UDA の適応的ロバストトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-02-18T17:05:19Z) - UMAD: Universal Model Adaptation under Domain and Category Shift [138.12678159620248]
Universal Model Adaptation (UMAD)フレームワークは、ソースデータにアクセスせずに両方のUDAシナリオを処理する。
未知のサンプルと未知のサンプルを識別するのに役立つ情報整合性スコアを開発した。
オープンセットおよびオープンパーティルセット UDA シナリオの実験では、UMAD が最先端のデータ依存手法に匹敵する性能を示した。
論文 参考訳(メタデータ) (2021-12-16T01:22:59Z) - Adversarial Robustness for Unsupervised Domain Adaptation [48.51898925429575]
本研究では、複数の堅牢なImageNetモデルから学習した中間表現を活用し、UDAモデルの堅牢性を改善する。
提案手法は,UCAモデルの特徴と,ImageNet事前学習モデルで学習した頑健な特徴とを,ドメイン適応トレーニングとともに整合させることによって機能する。
論文 参考訳(メタデータ) (2021-09-02T13:45:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。