論文の概要: Towards Accurate and Robust Domain Adaptation under Noisy Environments
- arxiv url: http://arxiv.org/abs/2004.12529v2
- Date: Tue, 5 May 2020 01:18:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 04:19:29.626378
- Title: Towards Accurate and Robust Domain Adaptation under Noisy Environments
- Title(参考訳): 雑音環境下での精度とロバストな領域適応に向けて
- Authors: Zhongyi Han, Xian-Jin Gui, Chaoran Cui, Yilong Yin
- Abstract要約: 非定常環境では、学習機械は通常、データ分布が時間とともに変化する領域適応シナリオに直面する。
それまでのドメイン適応の研究は理論と実践において大きな成功を収めた。
しかし、ソースドメインのラベルや特徴が破損するノイズの多い環境では、常にロバストさを失う。
- 参考スコア(独自算出の注目度): 37.46889836344764
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In non-stationary environments, learning machines usually confront the domain
adaptation scenario where the data distribution does change over time. Previous
domain adaptation works have achieved great success in theory and practice.
However, they always lose robustness in noisy environments where the labels and
features of examples from the source domain become corrupted. In this paper, we
report our attempt towards achieving accurate noise-robust domain adaptation.
We first give a theoretical analysis that reveals how harmful noises influence
unsupervised domain adaptation. To eliminate the effect of label noise, we
propose an offline curriculum learning for minimizing a newly-defined empirical
source risk. To reduce the impact of feature noise, we propose a proxy
distribution based margin discrepancy. We seamlessly transform our methods into
an adversarial network that performs efficient joint optimization for them,
successfully mitigating the negative influence from both data corruption and
distribution shift. A series of empirical studies show that our algorithm
remarkably outperforms state of the art, over 10% accuracy improvements in some
domain adaptation tasks under noisy environments.
- Abstract(参考訳): 非定常環境では、学習機械は通常、時間とともにデータ分布が変化するドメイン適応シナリオに直面する。
以前のドメイン適応論は理論と実践において大きな成功を収めた。
しかし、ソースドメインの例のラベルや特徴が腐敗する、ノイズの多い環境では、常に堅牢性を失う。
本稿では,ノイズロバスト領域の高精度適応を実現する試みについて報告する。
まず、有害ノイズが教師なし領域適応にどのように影響するかを理論的に分析する。
ラベルノイズの影響を解消するために,新たに定義された経験的ソースリスクを最小化するオフラインカリキュラム学習を提案する。
特徴雑音の影響を低減するため,代用分布に基づく差分差分法を提案する。
我々は,この手法を効率の良い共同最適化を行う対向ネットワークにシームレスに変換し,データ破損と分散シフトの両方による負の影響を軽減した。
実験により,本アルゴリズムは, 雑音環境下での領域適応タスクにおいて, 精度10%以上の精度向上を実現していることがわかった。
関連論文リスト
- Denoising as Adaptation: Noise-Space Domain Adaptation for Image Restoration [64.84134880709625]
拡散モデルを用いて,雑音空間を介して領域適応を行うことが可能であることを示す。
特に、補助的な条件入力が多段階の復調過程にどのように影響するかというユニークな性質を活用することにより、有意義な拡散損失を導出する。
拡散モデルにおけるチャネルシャッフル層や残留スワッピング型コントラスト学習などの重要な戦略を提案する。
論文 参考訳(メタデータ) (2024-06-26T17:40:30Z) - Learning with Noisy Foundation Models [95.50968225050012]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - De-Confusing Pseudo-Labels in Source-Free Domain Adaptation [14.954662088592762]
ソースのないドメイン適応は、ソースデータにアクセスすることなく、未ラベルのターゲットドメインにソース訓練されたモデルを適用することを目的としている。
本稿では,ドメイン適応設定における雑音分布に対処するための新しいノイズ学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-03T10:07:11Z) - Understanding and Mitigating the Label Noise in Pre-training on
Downstream Tasks [91.15120211190519]
本稿では、事前学習データセットにおけるノイズの性質を理解し、下流タスクへの影響を軽減することを目的とする。
雑音の悪影響を軽減するために特徴空間に適応する軽量ブラックボックスチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2023-09-29T06:18:15Z) - Unsupervised Noise adaptation using Data Simulation [21.866522173387715]
本稿では,逆クリーン・ノイズ変換を効率よく学習するための生成逆ネットワークに基づく手法を提案する。
実験結果から,本手法はトレーニングセットとテストセット間のドメインミスマッチを効果的に軽減することが示された。
論文 参考訳(メタデータ) (2023-02-23T12:57:20Z) - Continual Test-Time Domain Adaptation [94.51284735268597]
テスト時ドメイン適応は、ソースデータを使用しずに、ソース事前訓練されたモデルをターゲットドメインに適応することを目的としている。
CoTTAは実装が容易で、市販の事前訓練モデルに簡単に組み込むことができる。
論文 参考訳(メタデータ) (2022-03-25T11:42:02Z) - Towards Robust Cross-domain Image Understanding with Unsupervised Noise
Removal [18.21213151403402]
ソース領域がノイズである場合に、クロスドメイン画像理解のための現代ドメイン適応手法が不十分であることが判明した。
Weakly Supervised Domain Adaptation (WSDA) のための新しいノイズ耐性ドメイン適応法を提案する。
新型コロナウイルスおよび電子商取引データセットの一般画像と医用画像の両面において,本手法の有効性を評価するため,広範な実験を行った。
論文 参考訳(メタデータ) (2021-09-09T14:06:59Z) - RDA: Robust Domain Adaptation via Fourier Adversarial Attacking [32.77436219094282]
教師なしドメイン適応(Unsupervised domain adapt、UDA)は、ラベル付きソースドメインにおける教師なしの損失とラベルなしターゲットドメインにおける教師なしの損失を含む。
本稿では,UDAにおけるオーバーフィッティングを軽減するために,対角攻撃を導入した頑健なドメイン適応手法であるRDAを提案する。
論文 参考訳(メタデータ) (2021-06-05T11:38:41Z) - Privacy Preserving Recalibration under Domain Shift [119.21243107946555]
本稿では,差分プライバシー制約下での校正問題の性質を抽象化する枠組みを提案する。
また、新しいリカレーションアルゴリズム、精度温度スケーリングを設計し、プライベートデータセットの事前処理より優れています。
論文 参考訳(メタデータ) (2020-08-21T18:43:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。