論文の概要: Exploring Adversarially Robust Training for Unsupervised Domain
Adaptation
- arxiv url: http://arxiv.org/abs/2202.09300v1
- Date: Fri, 18 Feb 2022 17:05:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-21 13:15:04.892385
- Title: Exploring Adversarially Robust Training for Unsupervised Domain
Adaptation
- Title(参考訳): 教師なしドメイン適応のための逆ロバストトレーニングの探索
- Authors: Shao-Yuan Lo and Vishal M. Patel
- Abstract要約: Unsupervised Domain Adaptation (UDA)メソッドは、ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送することを目的としている。
本稿では、UDAのドメイン不変性を学習しながら、ATを介してラベルなしデータのロバスト性を高める方法について検討する。
本稿では,ARTUDA と呼ばれる UDA の適応的ロバストトレーニング手法を提案する。
- 参考スコア(独自算出の注目度): 71.94264837503135
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised Domain Adaptation (UDA) methods aim to transfer knowledge from a
labeled source domain to an unlabeled target domain. UDA has been extensively
studied in the computer vision literature. Deep networks have been shown to be
vulnerable to adversarial attacks. However, very little focus is devoted to
improving the adversarial robustness of deep UDA models, causing serious
concerns about model reliability. Adversarial Training (AT) has been considered
to be the most successful adversarial defense approach. Nevertheless,
conventional AT requires ground-truth labels to generate adversarial examples
and train models, which limits its effectiveness in the unlabeled target
domain. In this paper, we aim to explore AT to robustify UDA models: How to
enhance the unlabeled data robustness via AT while learning domain-invariant
features for UDA? To answer this, we provide a systematic study into multiple
AT variants that potentially apply to UDA. Moreover, we propose a novel
Adversarially Robust Training method for UDA accordingly, referred to as
ARTUDA. Extensive experiments on multiple attacks and benchmarks show that
ARTUDA consistently improves the adversarial robustness of UDA models.
- Abstract(参考訳): Unsupervised Domain Adaptation (UDA)メソッドは、ラベル付きソースドメインからラベル付きターゲットドメインへの知識の転送を目的としている。
UDAはコンピュータビジョン文学で広く研究されている。
ディープネットワークは敵の攻撃に弱いことが示されている。
しかし、深いUDAモデルの敵意的堅牢性を改善することにはほとんど焦点が当てられず、モデルの信頼性に深刻な懸念がもたらされる。
対人訓練(AT)は最も成功した対人防御のアプローチと考えられている。
それにもかかわらず、従来のATは、非ラベルのターゲット領域におけるその有効性を制限した敵のサンプルや列車モデルを生成するために、地平線ラベルを必要とする。
本稿では、UDAモデルのドメイン不変性を学習しながら、ATを介してラベルなしデータのロバスト性を高める方法について検討する。
これに対応するために、UDAに適用可能な複数のAT変種について体系的な研究を行う。
さらに,ARTUDA と呼ばれる UDA の適応ロバスト学習手法を提案する。
複数の攻撃とベンチマークに関する大規模な実験により、ARTUDAはUDAモデルの対角的堅牢性を一貫して改善することが示された。
関連論文リスト
- Unveiling the Superior Paradigm: A Comparative Study of Source-Free Domain Adaptation and Unsupervised Domain Adaptation [52.36436121884317]
Source-Free Domain Adaptation (SFDA) は、現実のシナリオにおいて、Unsupervised Domain Adaptation (UDA) よりも一般的に優れていることを示す。
SFDAは、時間効率、ストレージ要件、対象とする学習目標、負の移動リスクの低減、過度な適合に対する堅牢性の向上といった利点を提供している。
利用可能なソースデータをマルチSFDA手法に効果的に統合する新しい重み推定法を提案する。
論文 参考訳(メタデータ) (2024-11-24T13:49:29Z) - Towards Trustworthy Unsupervised Domain Adaptation: A Representation Learning Perspective for Enhancing Robustness, Discrimination, and Generalization [31.176062426569068]
Robust Unsupervised Domain Adaptation (RoUDA)は、クリーンなだけでなく、堅牢なドメイン間の知識伝達を実現することを目的としている。
我々は, 相互情報理論(MIRoUDA)を利用した新しいアルゴリズムを設計する。
我々の手法は最先端の技術をはるかに上回っている。
論文 参考訳(メタデータ) (2024-06-19T03:19:34Z) - Can We Evaluate Domain Adaptation Models Without Target-Domain Labels? [36.05871459064825]
教師なしドメイン適応(Unsupervised domain adapt, UDA)は、ラベル豊富なソースドメインでトレーニングされたモデルをラベルなしのターゲットドメインに適応させる。
現実のシナリオでは、ターゲットドメインラベルがないため、UDAモデルの性能を評価するのは難しい。
これらの問題に対処するため,textitTransfer Scoreと呼ばれる新しいメトリクスを提案する。
論文 参考訳(メタデータ) (2023-05-30T03:36:40Z) - AVATAR: Adversarial self-superVised domain Adaptation network for TARget
domain [11.764601181046496]
本稿では,未ラベル対象領域データの予測のための教師なし領域適応(UDA)手法を提案する。
本稿では,AVATAR(Adversarial Self-superVised Domain Adaptation Network for the TARget domain)アルゴリズムを提案する。
提案手法は,3つのUDAベンチマークにおいて,最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2023-04-28T20:31:56Z) - Adversarial Robustness for Unsupervised Domain Adaptation [48.51898925429575]
本研究では、複数の堅牢なImageNetモデルから学習した中間表現を活用し、UDAモデルの堅牢性を改善する。
提案手法は,UCAモデルの特徴と,ImageNet事前学習モデルで学習した頑健な特徴とを,ドメイン適応トレーニングとともに整合させることによって機能する。
論文 参考訳(メタデータ) (2021-09-02T13:45:01Z) - Understanding the Limits of Unsupervised Domain Adaptation via Data
Poisoning [66.80663779176979]
教師なしドメイン適応(UDA)は、対象ドメインラベルなしでドメイン間の学習を可能にする。
本稿では,ソース領域誤りの最小化と,ターゲット領域誤りの低減を保証するための限界分布ミスマッチの有効性を示す。
そこで本研究では,UDA手法を誤用した新たなデータ中毒攻撃手法を提案する。
論文 参考訳(メタデータ) (2021-07-08T15:51:14Z) - Consistency Regularization for Adversarial Robustness [88.65786118562005]
adversarial trainingは、ディープニューラルネットワークの敵対的堅牢性を得るために最も成功した方法の1つである。
しかし、ATから得られる堅牢性の大幅な一般化ギャップは問題視されている。
本稿では,この問題に対処するためにデータ拡張手法について検討する。
論文 参考訳(メタデータ) (2021-03-08T09:21:41Z) - Robustified Domain Adaptation [13.14535125302501]
非教師付きドメイン適応(Unsupervised domain adapt, UDA)は、ラベル付きソースドメインからラベル付きターゲットドメインへの知識伝達に広く使用される。
UDAにおける避けられないドメイン分布の偏りは、ターゲットドメインの堅牢性をモデル化するための重要な障壁である。
頑健な UDA モデルをトレーニングするための新しいクラス一貫性のないunsupervised Domain Adaptation (CURDA) フレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-18T22:21:54Z) - Adversarial Distributional Training for Robust Deep Learning [53.300984501078126]
逆行訓練(AT)は、逆行例によるトレーニングデータを増やすことにより、モデルロバスト性を改善する最も効果的な手法の一つである。
既存のAT手法の多くは、敵の例を作らせるために特定の攻撃を採用しており、他の目に見えない攻撃に対する信頼性の低い堅牢性につながっている。
本稿では,ロバストモデル学習のための新しいフレームワークであるADTを紹介する。
論文 参考訳(メタデータ) (2020-02-14T12:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。