論文の概要: Robustified Domain Adaptation
- arxiv url: http://arxiv.org/abs/2011.09563v2
- Date: Wed, 24 Mar 2021 21:18:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-24 04:40:03.947950
- Title: Robustified Domain Adaptation
- Title(参考訳): ロバスト化ドメイン適応
- Authors: Jiajin Zhang, Hanqing Chao, Pingkun Yan
- Abstract要約: 非教師付きドメイン適応(Unsupervised domain adapt, UDA)は、ラベル付きソースドメインからラベル付きターゲットドメインへの知識伝達に広く使用される。
UDAにおける避けられないドメイン分布の偏りは、ターゲットドメインの堅牢性をモデル化するための重要な障壁である。
頑健な UDA モデルをトレーニングするための新しいクラス一貫性のないunsupervised Domain Adaptation (CURDA) フレームワークを提案する。
- 参考スコア(独自算出の注目度): 13.14535125302501
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised domain adaptation (UDA) is widely used to transfer knowledge
from a labeled source domain to an unlabeled target domain with different data
distribution. While extensive studies attested that deep learning models are
vulnerable to adversarial attacks, the adversarial robustness of models in
domain adaptation application has largely been overlooked. This paper points
out that the inevitable domain distribution deviation in UDA is a critical
barrier to model robustness on the target domain. To address the problem, we
propose a novel Class-consistent Unsupervised Robust Domain Adaptation (CURDA)
framework for training robust UDA models. With the introduced contrastive
robust training and source anchored adversarial contrastive losses, our
proposed CURDA framework can effectively robustify UDA models by simultaneously
minimizing the data distribution deviation and the distance between target
domain clean-adversarial pairs without creating classification confusion.
Experiments on several public benchmarks show that CURDA can significantly
improve model robustness in the target domain with only minor cost of accuracy
on the clean samples.
- Abstract(参考訳): 非教師付きドメイン適応(Unsupervised domain adapt, UDA)は、ラベル付きソースドメインから異なるデータ分布を持つラベル付きターゲットドメインへの知識伝達に広く用いられている。
広範囲にわたる研究により、ディープラーニングモデルは敵の攻撃に弱いことが証明されたが、ドメイン適応アプリケーションにおけるモデルの敵の堅牢性はほとんど見過ごされている。
本稿では、udaにおける避けられない領域分布偏差が、対象領域におけるモデルロバスト性に対する重要な障壁であることを示す。
そこで本研究では,頑健な UDA モデルをトレーニングするためのクラス一貫性のないアントラクショナルロバストドメイン適応(CURDA)フレームワークを提案する。
提案するCURDAフレームワークは,データ分散偏差と対象領域のクリーン対間距離を,分類混乱を生じさせることなく同時に最小化することにより,UDAモデルを効果的に堅牢化することができる。
いくつかの公開ベンチマーク実験により、CURDAは、クリーンサンプルのわずかなコストでターゲット領域におけるモデルロバスト性を大幅に改善できることが示された。
関連論文リスト
- Unveiling the Superior Paradigm: A Comparative Study of Source-Free Domain Adaptation and Unsupervised Domain Adaptation [52.36436121884317]
Source-Free Domain Adaptation (SFDA) は、現実のシナリオにおいて、Unsupervised Domain Adaptation (UDA) よりも一般的に優れていることを示す。
SFDAは、時間効率、ストレージ要件、対象とする学習目標、負の移動リスクの低減、過度な適合に対する堅牢性の向上といった利点を提供している。
利用可能なソースデータをマルチSFDA手法に効果的に統合する新しい重み推定法を提案する。
論文 参考訳(メタデータ) (2024-11-24T13:49:29Z) - DACAD: Domain Adaptation Contrastive Learning for Anomaly Detection in Multivariate Time Series [25.434379659643707]
時系列異常検出では、ラベル付きデータの不足が正確なモデルの開発に困難をもたらす。
時系列における異常検出のための新しいドメインコントラスト学習モデル(DACAD)を提案する。
本モデルでは,ソース領域に対する教師付きコントラスト損失と,ターゲット領域に対する自己監督型コントラスト型3重項損失を用いる。
論文 参考訳(メタデータ) (2024-04-17T11:20:14Z) - Open-Set Domain Adaptation with Visual-Language Foundation Models [51.49854335102149]
非教師なしドメイン適応(UDA)は、ソースドメインからラベルのないデータを持つターゲットドメインへの知識の転送に非常に効果的であることが証明されている。
オープンセットドメイン適応(ODA)は、トレーニングフェーズ中にこれらのクラスを識別する潜在的なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-07-30T11:38:46Z) - AVATAR: Adversarial self-superVised domain Adaptation network for TARget
domain [11.764601181046496]
本稿では,未ラベル対象領域データの予測のための教師なし領域適応(UDA)手法を提案する。
本稿では,AVATAR(Adversarial Self-superVised Domain Adaptation Network for the TARget domain)アルゴリズムを提案する。
提案手法は,3つのUDAベンチマークにおいて,最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2023-04-28T20:31:56Z) - Distributionally Robust Domain Adaptation [12.02023514105999]
ドメイン適応(DA: Domain Adaptation)は、ソースドメインとターゲットドメインをまたいだ学習モデルに適合する可能性から、最近大きな注目を集めている。
本稿では,分散ロバストな領域適応手法DRDAを提案する。
論文 参考訳(メタデータ) (2022-10-30T17:29:22Z) - Exploring Adversarially Robust Training for Unsupervised Domain
Adaptation [71.94264837503135]
Unsupervised Domain Adaptation (UDA)メソッドは、ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送することを目的としている。
本稿では、UDAのドメイン不変性を学習しながら、ATを介してラベルなしデータのロバスト性を高める方法について検討する。
本稿では,ARTUDA と呼ばれる UDA の適応的ロバストトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-02-18T17:05:19Z) - Boosting Unsupervised Domain Adaptation with Soft Pseudo-label and
Curriculum Learning [19.903568227077763]
教師なしドメイン適応(UDA)は、完全にラベル付けされたソースドメインからのデータを活用することにより、ラベル付けされていないターゲットドメインの分類性能を向上させる。
ソフトな擬似ラベル戦略を用いてモデル予測の欠陥を大幅に低減するモデルに依存しない2段階学習フレームワークを提案する。
第2段階では,2つのドメインの損失間の重み付けを適応的に制御するカリキュラム学習戦略を提案する。
論文 参考訳(メタデータ) (2021-12-03T14:47:32Z) - Adversarial Robustness for Unsupervised Domain Adaptation [48.51898925429575]
本研究では、複数の堅牢なImageNetモデルから学習した中間表現を活用し、UDAモデルの堅牢性を改善する。
提案手法は,UCAモデルの特徴と,ImageNet事前学習モデルで学習した頑健な特徴とを,ドメイン適応トレーニングとともに整合させることによって機能する。
論文 参考訳(メタデータ) (2021-09-02T13:45:01Z) - Stagewise Unsupervised Domain Adaptation with Adversarial Self-Training
for Road Segmentation of Remote Sensing Images [93.50240389540252]
リモートセンシング画像からの道路セグメンテーションは、幅広い応用可能性を持つ課題である。
本稿では,この領域における領域シフト(DS)問題に対処するため,RoadDAと呼ばれる新たな段階的ドメイン適応モデルを提案する。
2つのベンチマーク実験の結果、RoadDAはドメインギャップを効率的に減らし、最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-08-28T09:29:14Z) - UDALM: Unsupervised Domain Adaptation through Language Modeling [79.73916345178415]
複合分類とマスキング言語モデル損失を用いた微調整手順であるUDALMについて紹介します。
本実験では, 混合損失スケールと利用可能な目標データの量で訓練されたモデルの性能を, 停止基準として有効に用いることを示した。
この方法は、amazon reviewsセンチメントデータセットの12のドメインペアで評価され、9.1.74%の精度が得られ、最先端よりも1.11%の絶対的な改善が得られます。
論文 参考訳(メタデータ) (2021-04-14T19:05:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。