論文の概要: Improving Adversarial Robustness via Unlabeled Out-of-Domain Data
- arxiv url: http://arxiv.org/abs/2006.08476v2
- Date: Sun, 21 Feb 2021 17:15:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 03:16:04.957021
- Title: Improving Adversarial Robustness via Unlabeled Out-of-Domain Data
- Title(参考訳): 未ラベルアウトオブドメインデータによる対向ロバスト性の改善
- Authors: Zhun Deng, Linjun Zhang, Amirata Ghorbani, James Zou
- Abstract要約: 本研究では,ドメイン外のラベルなしデータを活用することで,敵のロバスト性を向上する方法について検討する。
ラベル付きデータと同じドメインではなく、シフトしたドメインからラベル付きデータがやってくると、より良い敵のロバスト性が得られるような設定を示す。
- 参考スコア(独自算出の注目度): 30.58040078862511
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data augmentation by incorporating cheap unlabeled data from multiple domains
is a powerful way to improve prediction especially when there is limited
labeled data. In this work, we investigate how adversarial robustness can be
enhanced by leveraging out-of-domain unlabeled data. We demonstrate that for
broad classes of distributions and classifiers, there exists a sample
complexity gap between standard and robust classification. We quantify to what
degree this gap can be bridged via leveraging unlabeled samples from a shifted
domain by providing both upper and lower bounds. Moreover, we show settings
where we achieve better adversarial robustness when the unlabeled data come
from a shifted domain rather than the same domain as the labeled data. We also
investigate how to leverage out-of-domain data when some structural
information, such as sparsity, is shared between labeled and unlabeled domains.
Experimentally, we augment two object recognition datasets (CIFAR-10 and SVHN)
with easy to obtain and unlabeled out-of-domain data and demonstrate
substantial improvement in the model's robustness against $\ell_\infty$
adversarial attacks on the original domain.
- Abstract(参考訳): 複数のドメインから安価なラベル付きデータを取り入れたデータ拡張は、特にラベル付きデータに制限がある場合に予測を改善する強力な方法である。
本研究では,領域外非ラベルデータを活用することで,敵対的ロバスト性を高める方法について検討する。
分布と分類器の幅広いクラスに対して,標準分類とロバスト分類の間にはサンプル複雑性ギャップが存在することを示す。
このギャップがどの程度橋渡し可能かは,上界と下界の両方を提供することで,シフト領域からのラベルなしサンプルを活用することで定量化する。
さらに,ラベルなしのデータがラベル付きデータと同じドメインではなく,シフトしたドメインから来る場合,より優れた競合的ロバスト性を実現するための設定を示す。
また、ラベル付きドメインとラベルなしドメインの間で、疎性などの構造情報を共有する場合に、ドメイン外データを活用する方法についても検討する。
実験により、2つのオブジェクト認識データセット(CIFAR-10 と SVHN)を取得・ラベル付けが容易で拡張し、元のドメインに対する$\ell_\infty$ 敵攻撃に対するモデルの堅牢性を大幅に改善した。
関連論文リスト
- Inter-Domain Mixup for Semi-Supervised Domain Adaptation [108.40945109477886]
半教師付きドメイン適応(SSDA)は、ソースとターゲットのドメイン分布をブリッジすることを目的としており、少数のターゲットラベルが利用可能である。
既存のSSDAの作業は、ソースドメインとターゲットドメインの両方からラベル情報をフル活用して、ドメイン間の機能アライメントに失敗する。
本稿では,新しいSSDA手法であるIDMNE(Inter-domain Mixup with Neighborhood Expansion)を提案する。
論文 参考訳(メタデータ) (2024-01-21T10:20:46Z) - Low-confidence Samples Matter for Domain Adaptation [47.552605279925736]
ドメイン適応(DA)は、知識をラベルの豊富なソースドメインから関連するがラベルの少ないターゲットドメインに転送することを目的としている。
低信頼度サンプルの処理による新しいコントラスト学習法を提案する。
提案手法を教師なしと半教師付きの両方のDA設定で評価する。
論文 参考訳(メタデータ) (2022-02-06T15:45:45Z) - Domain Transformer: Predicting Samples of Unseen, Future Domains [1.7310589008573272]
教師なしの方法でドメイントランスフォーマーを学習し、目に見えないドメインのデータを生成する。
提案手法はまず,Cycle-GANを用いて自動エンコーダから得られた2つの領域の潜在表現を独立に学習する。
逆に、元のサンプルの変換を学習して、未確認領域への外挿を反復的に適用することができる。
論文 参考訳(メタデータ) (2021-06-10T21:20:00Z) - Cross-domain Contrastive Learning for Unsupervised Domain Adaptation [108.63914324182984]
教師なしドメイン適応(Unsupervised domain adapt、UDA)は、完全にラベル付けされたソースドメインから異なるラベル付けされていないターゲットドメインに学習した知識を転送することを目的としている。
対照的な自己教師型学習に基づいて、トレーニングとテストセット間のドメインの相違を低減するために、機能を整列させます。
論文 参考訳(メタデータ) (2021-06-10T06:32:30Z) - Contrastive Learning and Self-Training for Unsupervised Domain
Adaptation in Semantic Segmentation [71.77083272602525]
UDAはラベル付きソースドメインからラベルなしターゲットドメインへの効率的な知識伝達を試みている。
本稿では,領域にまたがるカテゴリ別センタロイドを適応させるコントラスト学習手法を提案する。
提案手法を自己学習で拡張し,メモリ効率の良い時間アンサンブルを用いて一貫性と信頼性の高い擬似ラベルを生成する。
論文 参考訳(メタデータ) (2021-05-05T11:55:53Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - Robust wav2vec 2.0: Analyzing Domain Shift in Self-Supervised
Pre-Training [67.71228426496013]
事前トレーニング中にターゲットドメインデータを使用することで,さまざまなセットアップで大幅なパフォーマンス向上が期待できる。
複数のドメインで事前トレーニングを行うことで、トレーニング中に見られないドメインのパフォーマンスの一般化が向上します。
論文 参考訳(メタデータ) (2021-04-02T12:53:15Z) - Weak Adaptation Learning -- Addressing Cross-domain Data Insufficiency
with Weak Annotator [2.8672054847109134]
一部のターゲット問題ドメインでは、学習プロセスを妨げる可能性のあるデータサンプルがあまりありません。
類似のソースドメインからのラベルなしデータを活用した弱い適応学習(wal)手法を提案する。
本実験は,対象領域に限定されたラベル付きデータを含む正確な分類器を学習する手法の有効性を示す。
論文 参考訳(メタデータ) (2021-02-15T06:19:25Z) - A Free Lunch for Unsupervised Domain Adaptive Object Detection without
Source Data [69.091485888121]
教師なしドメイン適応(unsupervised domain adaptation) ソースとターゲットのドメインデータは自由に利用でき、通常、ドメイン間のギャップを減らすために一緒に訓練される。
ノイズの多いラベルで学習する問題にモデル化することで,ソースデータのないドメイン適応オブジェクト検出(SFOD)フレームワークを提案する。
論文 参考訳(メタデータ) (2020-12-10T01:42:35Z) - DACS: Domain Adaptation via Cross-domain Mixed Sampling [4.205692673448206]
教師なしのドメイン適応は、あるドメインからラベル付きデータをトレーニングし、同時に関心のあるドメインでラベルなしのデータから学習しようとする。
DACS: クロスドメイン混合サンプリングによるドメイン適応(Domain Adaptation)を提案する。
我々は,GTA5からCityscapesへの最先端の成果を得ることによって,ソリューションの有効性を実証する。
論文 参考訳(メタデータ) (2020-07-17T00:43:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。