論文の概要: Exploring Adversarially Robust Training for Unsupervised Domain
Adaptation
- arxiv url: http://arxiv.org/abs/2202.09300v1
- Date: Fri, 18 Feb 2022 17:05:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-21 13:15:04.892385
- Title: Exploring Adversarially Robust Training for Unsupervised Domain
Adaptation
- Title(参考訳): 教師なしドメイン適応のための逆ロバストトレーニングの探索
- Authors: Shao-Yuan Lo and Vishal M. Patel
- Abstract要約: Unsupervised Domain Adaptation (UDA)メソッドは、ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送することを目的としている。
本稿では、UDAのドメイン不変性を学習しながら、ATを介してラベルなしデータのロバスト性を高める方法について検討する。
本稿では,ARTUDA と呼ばれる UDA の適応的ロバストトレーニング手法を提案する。
- 参考スコア(独自算出の注目度): 71.94264837503135
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised Domain Adaptation (UDA) methods aim to transfer knowledge from a
labeled source domain to an unlabeled target domain. UDA has been extensively
studied in the computer vision literature. Deep networks have been shown to be
vulnerable to adversarial attacks. However, very little focus is devoted to
improving the adversarial robustness of deep UDA models, causing serious
concerns about model reliability. Adversarial Training (AT) has been considered
to be the most successful adversarial defense approach. Nevertheless,
conventional AT requires ground-truth labels to generate adversarial examples
and train models, which limits its effectiveness in the unlabeled target
domain. In this paper, we aim to explore AT to robustify UDA models: How to
enhance the unlabeled data robustness via AT while learning domain-invariant
features for UDA? To answer this, we provide a systematic study into multiple
AT variants that potentially apply to UDA. Moreover, we propose a novel
Adversarially Robust Training method for UDA accordingly, referred to as
ARTUDA. Extensive experiments on multiple attacks and benchmarks show that
ARTUDA consistently improves the adversarial robustness of UDA models.
- Abstract(参考訳): Unsupervised Domain Adaptation (UDA)メソッドは、ラベル付きソースドメインからラベル付きターゲットドメインへの知識の転送を目的としている。
UDAはコンピュータビジョン文学で広く研究されている。
ディープネットワークは敵の攻撃に弱いことが示されている。
しかし、深いUDAモデルの敵意的堅牢性を改善することにはほとんど焦点が当てられず、モデルの信頼性に深刻な懸念がもたらされる。
対人訓練(AT)は最も成功した対人防御のアプローチと考えられている。
それにもかかわらず、従来のATは、非ラベルのターゲット領域におけるその有効性を制限した敵のサンプルや列車モデルを生成するために、地平線ラベルを必要とする。
本稿では、UDAモデルのドメイン不変性を学習しながら、ATを介してラベルなしデータのロバスト性を高める方法について検討する。
これに対応するために、UDAに適用可能な複数のAT変種について体系的な研究を行う。
さらに,ARTUDA と呼ばれる UDA の適応ロバスト学習手法を提案する。
複数の攻撃とベンチマークに関する大規模な実験により、ARTUDAはUDAモデルの対角的堅牢性を一貫して改善することが示された。
関連論文リスト
- AROID: Improving Adversarial Robustness through Online Instance-wise
Data Augmentation [7.12940198032571]
対戦訓練(英語: Adversarial Training、AT)は、敵の例に対する効果的な防御である。
ATは、頑丈さを著しく低下させる過度な適合をしがちだ。
本研究は、ATの堅牢な一般化を改善するために、オンライン、例えばDAポリシーを自動的に学習する新しい方法を提案する。
論文 参考訳(メタデータ) (2023-06-12T15:54:52Z) - Can We Evaluate Domain Adaptation Models Without Target-Domain Labels? [36.05871459064825]
教師なしドメイン適応(Unsupervised domain adapt, UDA)は、ラベル豊富なソースドメインでトレーニングされたモデルをラベルなしのターゲットドメインに適応させる。
現実のシナリオでは、ターゲットドメインラベルがないため、UDAモデルの性能を評価するのは難しい。
これらの問題に対処するため,textitTransfer Scoreと呼ばれる新しいメトリクスを提案する。
論文 参考訳(メタデータ) (2023-05-30T03:36:40Z) - AVATAR: Adversarial self-superVised domain Adaptation network for TARget
domain [11.764601181046496]
本稿では,未ラベル対象領域データの予測のための教師なし領域適応(UDA)手法を提案する。
本稿では,AVATAR(Adversarial Self-superVised Domain Adaptation Network for the TARget domain)アルゴリズムを提案する。
提案手法は,3つのUDAベンチマークにおいて,最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2023-04-28T20:31:56Z) - Adversarial Robustness for Unsupervised Domain Adaptation [48.51898925429575]
本研究では、複数の堅牢なImageNetモデルから学習した中間表現を活用し、UDAモデルの堅牢性を改善する。
提案手法は,UCAモデルの特徴と,ImageNet事前学習モデルで学習した頑健な特徴とを,ドメイン適応トレーニングとともに整合させることによって機能する。
論文 参考訳(メタデータ) (2021-09-02T13:45:01Z) - Understanding the Limits of Unsupervised Domain Adaptation via Data
Poisoning [66.80663779176979]
教師なしドメイン適応(UDA)は、対象ドメインラベルなしでドメイン間の学習を可能にする。
本稿では,ソース領域誤りの最小化と,ターゲット領域誤りの低減を保証するための限界分布ミスマッチの有効性を示す。
そこで本研究では,UDA手法を誤用した新たなデータ中毒攻撃手法を提案する。
論文 参考訳(メタデータ) (2021-07-08T15:51:14Z) - Exploring Robustness of Unsupervised Domain Adaptation in Semantic
Segmentation [74.05906222376608]
クリーンな画像とそれらの逆の例との一致を、出力空間における対照的な損失によって最大化する、逆向きの自己スーパービジョンUDA(ASSUDA)を提案する。
i) セマンティックセグメンテーションにおけるUDA手法のロバスト性は未解明のままであり, (ii) 一般的に自己スーパービジョン(回転やジグソーなど) は分類や認識などのイメージタスクに有効であるが, セグメンテーションタスクの識別的表現を学習する重要な監視信号の提供には失敗している。
論文 参考訳(メタデータ) (2021-05-23T01:50:44Z) - Consistency Regularization for Adversarial Robustness [88.65786118562005]
adversarial trainingは、ディープニューラルネットワークの敵対的堅牢性を得るために最も成功した方法の1つである。
しかし、ATから得られる堅牢性の大幅な一般化ギャップは問題視されている。
本稿では,この問題に対処するためにデータ拡張手法について検討する。
論文 参考訳(メタデータ) (2021-03-08T09:21:41Z) - Robustified Domain Adaptation [13.14535125302501]
非教師付きドメイン適応(Unsupervised domain adapt, UDA)は、ラベル付きソースドメインからラベル付きターゲットドメインへの知識伝達に広く使用される。
UDAにおける避けられないドメイン分布の偏りは、ターゲットドメインの堅牢性をモデル化するための重要な障壁である。
頑健な UDA モデルをトレーニングするための新しいクラス一貫性のないunsupervised Domain Adaptation (CURDA) フレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-18T22:21:54Z) - Adversarial Distributional Training for Robust Deep Learning [53.300984501078126]
逆行訓練(AT)は、逆行例によるトレーニングデータを増やすことにより、モデルロバスト性を改善する最も効果的な手法の一つである。
既存のAT手法の多くは、敵の例を作らせるために特定の攻撃を採用しており、他の目に見えない攻撃に対する信頼性の低い堅牢性につながっている。
本稿では,ロバストモデル学習のための新しいフレームワークであるADTを紹介する。
論文 参考訳(メタデータ) (2020-02-14T12:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。