論文の概要: Unsupervised Robust Domain Adaptation: Paradigm, Theory and Algorithm
- arxiv url: http://arxiv.org/abs/2511.11009v1
- Date: Fri, 14 Nov 2025 06:54:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.464618
- Title: Unsupervised Robust Domain Adaptation: Paradigm, Theory and Algorithm
- Title(参考訳): 教師なしロバスト領域適応:パラダイム、理論、アルゴリズム
- Authors: Fuxiang Huang, Xiaowei Fu, Shiyu Ye, Lina Ma, Wen Li, Xinbo Gao, David Zhang, Lei Zhang,
- Abstract要約: 教師なしドメイン適応(Unsupervised domain adapt, UDA)は、ラベル豊富なソースドメインから、ドメインシフトに対処することで、ラベルなしのターゲットドメインに知識を転送することを目的としている。
ほとんどのUDAアプローチは転送能力を強調しているが、敵の攻撃に対する堅牢性を見落としていることが多い。
本稿は, 1) 防衛効果として知られるVATがUDAパラダイムで失敗する理由, 2) 攻撃下の一般化境界理論と, 古典的UDA理論からどのように進化するか, の3つに焦点をあてる。
- 参考スコア(独自算出の注目度): 58.350254095190365
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised domain adaptation (UDA) aims to transfer knowledge from a label-rich source domain to an unlabeled target domain by addressing domain shifts. Most UDA approaches emphasize transfer ability, but often overlook robustness against adversarial attacks. Although vanilla adversarial training (VAT) improves the robustness of deep neural networks, it has little effect on UDA. This paper focuses on answering three key questions: 1) Why does VAT, known for its defensive effectiveness, fail in the UDA paradigm? 2) What is the generalization bound theory under attacks and how does it evolve from classical UDA theory? 3) How can we implement a robustification training procedure without complex modifications? Specifically, we explore and reveal the inherent entanglement challenge in general UDA+VAT paradigm, and propose an unsupervised robust domain adaptation (URDA) paradigm. We further derive the generalization bound theory of the URDA paradigm so that it can resist adversarial noise and domain shift. To the best of our knowledge, this is the first time to establish the URDA paradigm and theory. We further introduce a simple, novel yet effective URDA algorithm called Disentangled Adversarial Robustness Training (DART), a two-step training procedure that ensures both transferability and robustness. DART first pre-trains an arbitrary UDA model, and then applies an instantaneous robustification post-training step via disentangled distillation.Experiments on four benchmark datasets with/without attacks show that DART effectively enhances robustness while maintaining domain adaptability, and validate the URDA paradigm and theory.
- Abstract(参考訳): 教師なしドメイン適応(Unsupervised domain adapt, UDA)は、ラベル豊富なソースドメインから、ドメインシフトに対処することで、ラベルなしのターゲットドメインに知識を転送することを目的としている。
ほとんどのUDAアプローチは転送能力を強調しているが、敵の攻撃に対する堅牢性を見落としていることが多い。
バニラ逆行訓練(VAT)は、ディープニューラルネットワークの堅牢性を改善するが、UDAにはほとんど影響しない。
本稿では,3つの質問に答えることに焦点をあてる。
1) 防衛効果で知られているVATがUDAパラダイムで失敗するのはなぜか?
2)攻撃下での一般化境界理論と、古典的UDA理論からどのように発展するか。
3) 複雑な変更を伴わないロバスト化訓練をどうやって実施すればよいか。
具体的には、UDA+VATパラダイムにおける固有の絡み合いの課題を探求し、明らかにし、教師なしの堅牢なドメイン適応(URDA)パラダイムを提案する。
さらに、URDAパラダイムの一般化境界理論を導出し、対向ノイズや領域シフトに耐えられるようにする。
私たちの知る限りでは、URDAパラダイムと理論を確立するのは今回が初めてです。
さらに,DART(Disentangled Adversarial Robustness Training)と呼ばれる,トランスファービリティとロバスト性の両方を保証する2段階のトレーニング手法を導入する。
DART はまず任意の UDA モデルを事前訓練し,その後,無拘束蒸留を用いて即時ロバスト化後ステップを適用し,DART がドメイン適応性を維持しながらロバスト性を効果的に向上し,URDA のパラダイムと理論を検証した。
関連論文リスト
- Towards Trustworthy Unsupervised Domain Adaptation: A Representation Learning Perspective for Enhancing Robustness, Discrimination, and Generalization [31.176062426569068]
Robust Unsupervised Domain Adaptation (RoUDA)は、クリーンなだけでなく、堅牢なドメイン間の知識伝達を実現することを目的としている。
我々は, 相互情報理論(MIRoUDA)を利用した新しいアルゴリズムを設計する。
我々の手法は最先端の技術をはるかに上回っている。
論文 参考訳(メタデータ) (2024-06-19T03:19:34Z) - DART: A Principled Approach to Adversarially Robust Unsupervised Domain
Adaptation [27.574908007114015]
我々はDART(Divergence Aware adveRsarial Training)と呼ばれる新しい統合防衛フレームワークを開発する。
DARTは一般的な脅威モデルに適用できる。
敵攻撃に対するUDAモデルの堅牢性を評価するテストベッドであるDomainRobustもリリースしています。
論文 参考訳(メタデータ) (2024-02-16T22:48:38Z) - How Useful is Continued Pre-Training for Generative Unsupervised Domain Adaptation? [23.454153602068786]
生成型UDAにおけるCPT(Continuoused Pre-Training)の有用性について検討した。
以上の結果から,下流の課題を暗黙的に学習し,その課題に有意なマスク付き単語を予測できることが示唆された。
論文 参考訳(メタデータ) (2024-01-31T00:15:34Z) - Make the U in UDA Matter: Invariant Consistency Learning for
Unsupervised Domain Adaptation [86.61336696914447]
ICON (Invariant Consistency Learning) の略。
我々は2つの領域に等しくの地位を与えることで、教師なしDAのUを作成することを提案する。
ICON は古典的な UDA ベンチマークである Office-Home と VisDA-2017 で最先端のパフォーマンスを実現し、挑戦的な WILDS 2.0 ベンチマークでは従来の方法よりも優れています。
論文 参考訳(メタデータ) (2023-09-22T09:43:32Z) - Prior Knowledge Guided Unsupervised Domain Adaptation [82.9977759320565]
本稿では,対象とするクラス分布に関する事前知識を利用できる知識誘導型非教師付きドメイン適応(KUDA)設定を提案する。
特に,対象領域におけるクラス分布に関する2種類の事前知識について考察する。
このような事前知識を用いて生成した擬似ラベルを精査する修正モジュールを提案する。
論文 参考訳(メタデータ) (2022-07-18T18:41:36Z) - Exploring Adversarially Robust Training for Unsupervised Domain
Adaptation [71.94264837503135]
Unsupervised Domain Adaptation (UDA)メソッドは、ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送することを目的としている。
本稿では、UDAのドメイン不変性を学習しながら、ATを介してラベルなしデータのロバスト性を高める方法について検討する。
本稿では,ARTUDA と呼ばれる UDA の適応的ロバストトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-02-18T17:05:19Z) - Adversarial Robustness for Unsupervised Domain Adaptation [48.51898925429575]
本研究では、複数の堅牢なImageNetモデルから学習した中間表現を活用し、UDAモデルの堅牢性を改善する。
提案手法は,UCAモデルの特徴と,ImageNet事前学習モデルで学習した頑健な特徴とを,ドメイン適応トレーニングとともに整合させることによって機能する。
論文 参考訳(メタデータ) (2021-09-02T13:45:01Z) - A New Bidirectional Unsupervised Domain Adaptation Segmentation
Framework [27.13101555533594]
異なるドメイン間のギャップを埋めるために、教師なしドメイン適応(UDA)技術が提案されている。
本稿では,両方向のUDA演奏に対して,非交互表現学習に基づく双方向UDAフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-18T05:25:11Z) - Consistency Regularization for Adversarial Robustness [88.65786118562005]
adversarial trainingは、ディープニューラルネットワークの敵対的堅牢性を得るために最も成功した方法の1つである。
しかし、ATから得られる堅牢性の大幅な一般化ギャップは問題視されている。
本稿では,この問題に対処するためにデータ拡張手法について検討する。
論文 参考訳(メタデータ) (2021-03-08T09:21:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。