論文の概要: DART: A Principled Approach to Adversarially Robust Unsupervised Domain
Adaptation
- arxiv url: http://arxiv.org/abs/2402.11120v1
- Date: Fri, 16 Feb 2024 22:48:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 23:26:53.732996
- Title: DART: A Principled Approach to Adversarially Robust Unsupervised Domain
Adaptation
- Title(参考訳): DART: 反転ロバストな教師なしドメイン適応への原則的アプローチ
- Authors: Yunjuan Wang, Hussein Hazimeh, Natalia Ponomareva, Alexey Kurakin,
Ibrahim Hammoud, Raman Arora
- Abstract要約: 我々はDART(Divergence Aware adveRsarial Training)と呼ばれる新しい統合防衛フレームワークを開発する。
DARTは一般的な脅威モデルに適用できる。
敵攻撃に対するUDAモデルの堅牢性を評価するテストベッドであるDomainRobustもリリースしています。
- 参考スコア(独自算出の注目度): 27.574908007114015
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Distribution shifts and adversarial examples are two major challenges for
deploying machine learning models. While these challenges have been studied
individually, their combination is an important topic that remains relatively
under-explored. In this work, we study the problem of adversarial robustness
under a common setting of distribution shift - unsupervised domain adaptation
(UDA). Specifically, given a labeled source domain $D_S$ and an unlabeled
target domain $D_T$ with related but different distributions, the goal is to
obtain an adversarially robust model for $D_T$. The absence of target domain
labels poses a unique challenge, as conventional adversarial robustness
defenses cannot be directly applied to $D_T$. To address this challenge, we
first establish a generalization bound for the adversarial target loss, which
consists of (i) terms related to the loss on the data, and (ii) a measure of
worst-case domain divergence. Motivated by this bound, we develop a novel
unified defense framework called Divergence Aware adveRsarial Training (DART),
which can be used in conjunction with a variety of standard UDA methods; e.g.,
DANN [Ganin and Lempitsky, 2015]. DART is applicable to general threat models,
including the popular $\ell_p$-norm model, and does not require heuristic
regularizers or architectural changes. We also release DomainRobust: a testbed
for evaluating robustness of UDA models to adversarial attacks. DomainRobust
consists of 4 multi-domain benchmark datasets (with 46 source-target pairs) and
7 meta-algorithms with a total of 11 variants. Our large-scale experiments
demonstrate that on average, DART significantly enhances model robustness on
all benchmarks compared to the state of the art, while maintaining competitive
standard accuracy. The relative improvement in robustness from DART reaches up
to 29.2% on the source-target domain pairs considered.
- Abstract(参考訳): 分散シフトと逆例としては、マシンラーニングモデルのデプロイに関する2つの大きな課題がある。
これらの課題は個別に研究されているが、それらの組み合わせは比較的未探索の重要トピックである。
本研究では,分散シフト(unsupervised domain adaptation,uda)の共通設定下での敵対的ロバスト性の問題について検討する。
具体的には、ラベル付きソースドメイン$D_S$とラベルなしターゲットドメイン$D_T$と関連するが異なるディストリビューションが与えられた場合、D_T$に対して逆向きに堅牢なモデルを得る。
ターゲットドメインラベルが存在しないことは、従来の対向ロバスト性防御が$D_T$に直接適用できないため、ユニークな課題となる。
この課題に対処するために、私たちはまず、対向目標損失の一般化を定めます。
(i)データ損失に関する用語、及び
(ii)最悪のドメイン分散の尺度。
そこで我々は,DANN (Ganin and Lempitsky, 2015) など,様々な標準 UDA 手法と組み合わせて使用可能な,DART (Divergence Aware adveRsarial Training) と呼ばれる新しい統合防衛フレームワークを開発した。
DARTは、人気のある$\ell_p$-normモデルを含む一般的な脅威モデルに適用でき、ヒューリスティックな正則化やアーキテクチャの変更を必要としない。
敵攻撃に対するUDAモデルの堅牢性を評価するテストベッドであるDomainRobustもリリースしています。
domainrobustは、4つのマルチドメインベンチマークデータセット(46のソースターゲットペア)と、合計11の派生を持つ7つのメタアルゴリズムで構成されている。
我々の大規模実験では、DARTは平均して、競争力のある標準精度を維持しながら、すべてのベンチマークにおけるモデルロバスト性を大幅に向上することを示した。
DARTからの堅牢性の相対的な改善は、ソースとターゲットのドメインペアで考慮された29.2%に達する。
関連論文リスト
- DRIVE: Dual-Robustness via Information Variability and Entropic Consistency in Source-Free Unsupervised Domain Adaptation [10.127634263641877]
ラベル付きデータなしで機械学習モデルを新しいドメインに適応させることは、医療画像、自律運転、リモートセンシングといったアプリケーションにおいて重要な課題である。
Source-Free Unsupervised Domain Adaptation (SFUDA)と呼ばれるこのタスクでは、未ラベルのターゲットデータのみを使用して、トレーニング済みのモデルをターゲットドメインに適応させる。
既存のSFUDAメソッドは、しばしば単一モデルアーキテクチャに依存し、ターゲットドメインにおける不確実性と可変性に悩まされる。
本稿では、2重モデルアーキテクチャを利用した新しいSFUDAフレームワークDRIVEを提案する。
論文 参考訳(メタデータ) (2024-11-24T20:35:04Z) - Make the U in UDA Matter: Invariant Consistency Learning for
Unsupervised Domain Adaptation [86.61336696914447]
ICON (Invariant Consistency Learning) の略。
我々は2つの領域に等しくの地位を与えることで、教師なしDAのUを作成することを提案する。
ICON は古典的な UDA ベンチマークである Office-Home と VisDA-2017 で最先端のパフォーマンスを実現し、挑戦的な WILDS 2.0 ベンチマークでは従来の方法よりも優れています。
論文 参考訳(メタデータ) (2023-09-22T09:43:32Z) - Alternating Objectives Generates Stronger PGD-Based Adversarial Attacks [78.2700757742992]
Projected Gradient Descent (PGD) は、そのような敵を生成するための最も効果的で概念的にシンプルなアルゴリズムの1つである。
この主張を合成データの例で実験的に検証し、提案手法を25の$ell_infty$-robustモデルと3つのデータセットで評価した。
私たちの最強の敵攻撃は、AutoAttackアンサンブルのすべてのホワイトボックスコンポーネントより優れています。
論文 参考訳(メタデータ) (2022-12-15T17:44:31Z) - IT-RUDA: Information Theory Assisted Robust Unsupervised Domain
Adaptation [7.225445443960775]
トレイン(ソース)とテスト(ターゲット)データセット間の分散シフトは、マシンラーニングアプリケーションで発生する一般的な問題である。
UDA技術はラベル豊富なソースドメインからラベルのないターゲットドメインへの知識伝達を行う。
ソースまたはターゲットデータセットのいずれかに存在するアウトリーチは、実際にUDAを使用する場合、さらなる課題をもたらす可能性がある。
論文 参考訳(メタデータ) (2022-10-24T04:33:52Z) - Domain Adaptive Person Search [20.442648584402917]
本稿では,ラベル付きソースドメインからラベル付きターゲットドメインへのモデルを一般化することを目的とした,DAPS(Domain Adaptive Person Search)を提案する。
我々は,我々のフレームワークがmAPで34.7%,PRWデータセットでトップ1で80.6%を達成したことを示す。
論文 参考訳(メタデータ) (2022-07-25T04:02:39Z) - Exploring Adversarially Robust Training for Unsupervised Domain
Adaptation [71.94264837503135]
Unsupervised Domain Adaptation (UDA)メソッドは、ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送することを目的としている。
本稿では、UDAのドメイン不変性を学習しながら、ATを介してラベルなしデータのロバスト性を高める方法について検討する。
本稿では,ARTUDA と呼ばれる UDA の適応的ロバストトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-02-18T17:05:19Z) - Unsupervised and self-adaptative techniques for cross-domain person
re-identification [82.54691433502335]
非重複カメラにおける人物再識別(ReID)は難しい課題である。
Unsupervised Domain Adaptation(UDA)は、ソースで訓練されたモデルから、IDラベルアノテーションなしでターゲットドメインへの機能学習適応を実行するため、有望な代替手段です。
本稿では,新しいオフライン戦略によって生成されたサンプルのトリプレットを利用する,UDAベースのReID手法を提案する。
論文 参考訳(メタデータ) (2021-03-21T23:58:39Z) - Robustified Domain Adaptation [13.14535125302501]
非教師付きドメイン適応(Unsupervised domain adapt, UDA)は、ラベル付きソースドメインからラベル付きターゲットドメインへの知識伝達に広く使用される。
UDAにおける避けられないドメイン分布の偏りは、ターゲットドメインの堅牢性をモデル化するための重要な障壁である。
頑健な UDA モデルをトレーニングするための新しいクラス一貫性のないunsupervised Domain Adaptation (CURDA) フレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-18T22:21:54Z) - Deep Co-Training with Task Decomposition for Semi-Supervised Domain
Adaptation [80.55236691733506]
半教師付きドメイン適応(SSDA)は、ラベル付きソースドメインからトレーニングされたモデルを、異なるが関連するターゲットドメインに適応させることを目的としている。
本稿では,SSDAタスクを対象ドメイン内の半教師付き学習(SSL)タスクと,ドメイン間の非教師付きドメイン適応(UDA)タスクの2つのサブタスクに明示的に分解することを提案する。
論文 参考訳(メタデータ) (2020-07-24T17:57:54Z) - Uncertainty-Aware Consistency Regularization for Cross-Domain Semantic
Segmentation [63.75774438196315]
Unsupervised Domain adapt (UDA) は、未ラベルのデータのみを持つ新しいターゲットドメインにソースドメインの既存のモデルを適用することを目的としている。
既存のほとんどの手法は、エラーを起こしやすい識別器ネットワークまたは不合理な教師モデルから生じる顕著な負の伝達に悩まされている。
ドメイン間セマンティックセグメンテーションのための不確実性を考慮した整合性正規化手法を提案する。
論文 参考訳(メタデータ) (2020-04-19T15:30:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。