論文の概要: SRoUDA: Meta Self-training for Robust Unsupervised Domain Adaptation
- arxiv url: http://arxiv.org/abs/2212.05917v1
- Date: Mon, 12 Dec 2022 14:25:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 16:55:39.169232
- Title: SRoUDA: Meta Self-training for Robust Unsupervised Domain Adaptation
- Title(参考訳): SRouDA:ロバストな教師なしドメイン適応のためのメタセルフトレーニング
- Authors: Wanqing Zhu, Jia-Li Yin, Bo-Hao Chen, Ximeng Liu
- Abstract要約: 教師なしドメイン適応(UDA)は、リッチラベルデータセットから学習した知識をラベルなしターゲットデータセットに転送することができる。
本稿では,UDAモデルの対角的ロバスト性を改善するために,SRoUDAというメタ自己学習パイプラインを提案する。
- 参考スコア(独自算出の注目度): 25.939292305808934
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As acquiring manual labels on data could be costly, unsupervised domain
adaptation (UDA), which transfers knowledge learned from a rich-label dataset
to the unlabeled target dataset, is gaining increasing popularity. While
extensive studies have been devoted to improving the model accuracy on target
domain, an important issue of model robustness is neglected. To make things
worse, conventional adversarial training (AT) methods for improving model
robustness are inapplicable under UDA scenario since they train models on
adversarial examples that are generated by supervised loss function. In this
paper, we present a new meta self-training pipeline, named SRoUDA, for
improving adversarial robustness of UDA models. Based on self-training
paradigm, SRoUDA starts with pre-training a source model by applying UDA
baseline on source labeled data and taraget unlabeled data with a developed
random masked augmentation (RMA), and then alternates between adversarial
target model training on pseudo-labeled target data and finetuning source model
by a meta step. While self-training allows the direct incorporation of AT in
UDA, the meta step in SRoUDA further helps in mitigating error propagation from
noisy pseudo labels. Extensive experiments on various benchmark datasets
demonstrate the state-of-the-art performance of SRoUDA where it achieves
significant model robustness improvement without harming clean accuracy. Code
is available at https://github.com/Vision.
- Abstract(参考訳): データの手動ラベルの取得にはコストがかかる可能性があるため、リッチラベルデータセットから未ラベルのターゲットデータセットに学習した知識を転送するunsupervised domain adaptation(UDA)が人気を集めている。
対象領域におけるモデル精度の向上に多くの研究が費やされているが、モデル堅牢性の重要な問題は無視されている。
さらに悪いことに、モデルロバスト性を改善するための従来の対戦訓練(AT)手法は、教師付き損失関数によって生成される敵の例に基づいてモデルを訓練するため、UDAシナリオでは適用できない。
本稿では,UDAモデルの対角的堅牢性を改善するために,SRoUDAというメタ自己学習パイプラインを提案する。
自己学習パラダイムに基づいて、SRoUDAは、ソースラベル付きデータにUDAベースラインを適用し、開発したランダムマスク拡張(RMA)でラベルなしデータをタラゲットすることでソースモデルを事前トレーニングし、その後、擬似ラベル付きターゲットデータに基づく敵ターゲットモデルトレーニングと、メタステップでソースモデルを微調整する。
自己学習は、UDAにATを直接組み込むことを可能にするが、SRoUDAのメタステップは、ノイズの多い擬似ラベルからのエラー伝播を緩和するのに役立つ。
さまざまなベンチマークデータセットに対する大規模な実験は、SRoUDAの最先端性能を示し、クリーンな精度を損なうことなく、重要なモデルロバスト性の改善を実現する。
コードはhttps://github.com/Vision.comで入手できる。
関連論文リスト
- Can We Evaluate Domain Adaptation Models Without Target-Domain Labels? [36.05871459064825]
教師なしドメイン適応(Unsupervised domain adapt, UDA)は、ラベル豊富なソースドメインでトレーニングされたモデルをラベルなしのターゲットドメインに適応させる。
現実のシナリオでは、ターゲットドメインラベルがないため、UDAモデルの性能を評価するのは難しい。
これらの問題に対処するため,textitTransfer Scoreと呼ばれる新しいメトリクスを提案する。
論文 参考訳(メタデータ) (2023-05-30T03:36:40Z) - Confidence Attention and Generalization Enhanced Distillation for
Continuous Video Domain Adaptation [62.458968086881555]
連続ビデオドメイン適応(CVDA、Continuous Video Domain Adaptation)は、ソースモデルが個々の変更対象ドメインに適応する必要があるシナリオである。
CVDAの課題に対処するため,遺伝子組み換え型自己知識解離(CART)を用いた信頼性保証ネットワークを提案する。
論文 参考訳(メタデータ) (2023-03-18T16:40:10Z) - MAPS: A Noise-Robust Progressive Learning Approach for Source-Free
Domain Adaptive Keypoint Detection [76.97324120775475]
クロスドメインキーポイント検出方法は、常に適応中にソースデータにアクセスする必要がある。
本稿では、ターゲット領域に十分に訓練されたソースモデルのみを提供する、ソースフリーなドメイン適応キーポイント検出について考察する。
論文 参考訳(メタデータ) (2023-02-09T12:06:08Z) - Robust Target Training for Multi-Source Domain Adaptation [110.77704026569499]
両レベル最適化に基づく新しいMSDAのためのロバスト目標訓練法(BORT$2$)を提案する。
提案手法は,大規模なDomainNetデータセットを含む3つのMSDAベンチマークにおいて,アートパフォーマンスの状態を達成している。
論文 参考訳(メタデータ) (2022-10-04T15:20:01Z) - Back to the Source: Diffusion-Driven Test-Time Adaptation [77.4229736436935]
テスト時間適応はテスト入力を利用し、シフトしたターゲットデータ上でテストした場合、ソースデータに基づいてトレーニングされたモデルの精度を向上させる。
代わりに、生成拡散モデルを用いて、すべてのテスト入力をソース領域に向けて投影することで、ターゲットデータを更新する。
論文 参考訳(メタデータ) (2022-07-07T17:14:10Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Distill and Fine-tune: Effective Adaptation from a Black-box Source
Model [138.12678159620248]
Unsupervised Domain Adapt (UDA) は、既存のラベル付きデータセット (source) の知識を新しいラベル付きデータセット (target) に転送することを目的としています。
Distill and Fine-tune (Dis-tune) という新しい二段階適応フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-04T05:29:05Z) - Robustified Domain Adaptation [13.14535125302501]
非教師付きドメイン適応(Unsupervised domain adapt, UDA)は、ラベル付きソースドメインからラベル付きターゲットドメインへの知識伝達に広く使用される。
UDAにおける避けられないドメイン分布の偏りは、ターゲットドメインの堅牢性をモデル化するための重要な障壁である。
頑健な UDA モデルをトレーニングするための新しいクラス一貫性のないunsupervised Domain Adaptation (CURDA) フレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-18T22:21:54Z) - Unsupervised Domain Adaptation for Person Re-Identification through
Source-Guided Pseudo-Labeling [2.449909275410288]
人物再識別(re-ID)は、異なるカメラで撮影された同一人物の画像を取得することを目的としている。
Unsupervised Domain Adaptation (UDA)は、ターゲットデータの高価なアノテーションを避けるため、この課題に対する興味深い研究方向である。
ソースドメインとターゲットドメインにおける分類と三重項損失に基づく計量学習を最適化する2分岐アーキテクチャを利用するフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-20T14:54:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。