論文の概要: Free Lunch for Domain Adversarial Training: Environment Label Smoothing
- arxiv url: http://arxiv.org/abs/2302.00194v1
- Date: Wed, 1 Feb 2023 02:55:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-02 18:00:32.020737
- Title: Free Lunch for Domain Adversarial Training: Environment Label Smoothing
- Title(参考訳): ドメイン敵トレーニングのための無料ランチ:環境ラベル平滑化
- Authors: YiFan Zhang, Xue Wang, Jian Liang, Zhang Zhang, Liang Wang, Rong Jin,
Tieniu Tan
- Abstract要約: 環境ラベル平滑化 (ELS) により, 騒音環境ラベルに対するトレーニング安定性, 局所収束性, 堅牢性を向上する。
特に環境ラベルが騒がしい場合, 領域の一般化・適応タスクについて, 最先端の成果が得られる。
- 参考スコア(独自算出の注目度): 82.85757548355566
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A fundamental challenge for machine learning models is how to generalize
learned models for out-of-distribution (OOD) data. Among various approaches,
exploiting invariant features by Domain Adversarial Training (DAT) received
widespread attention. Despite its success, we observe training instability from
DAT, mostly due to over-confident domain discriminator and environment label
noise. To address this issue, we proposed Environment Label Smoothing (ELS),
which encourages the discriminator to output soft probability, which thus
reduces the confidence of the discriminator and alleviates the impact of noisy
environment labels. We demonstrate, both experimentally and theoretically, that
ELS can improve training stability, local convergence, and robustness to noisy
environment labels. By incorporating ELS with DAT methods, we are able to yield
state-of-art results on a wide range of domain generalization/adaptation tasks,
particularly when the environment labels are highly noisy.
- Abstract(参考訳): 機械学習モデルの基本的な課題は、ood(out-of-distribution)データの学習モデルを一般化する方法である。
様々なアプローチの中で、ドメイン敵訓練(dat)による不変特徴の活用が広く注目を集めた。
DAT からのトレーニング不安定性は,DAT の信頼性が高すぎる領域判別器と環境ラベルノイズが原因である。
この問題に対処するため,我々は,識別器がソフト確率を出力することを奨励する環境ラベル平滑化(ELS)を提案し,識別器の信頼性を低下させ,ノイズの多い環境ラベルの影響を軽減する。
我々は,elsが学習安定性,局所収束性,雑音環境ラベルのロバスト性を向上させることを実験的および理論的に実証する。
DAT手法にESSを組み込むことで、特に環境ラベルが騒がしい場合に、幅広い領域の一般化/適応タスクに対して最先端の結果を得ることができる。
関連論文リスト
- Learning with Imbalanced Noisy Data by Preventing Bias in Sample
Selection [82.43311784594384]
実世界のデータセットには、ノイズの多いラベルだけでなく、クラス不均衡も含まれている。
不均衡なデータセットにおけるノイズラベルに対処する,単純かつ効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-02-17T10:34:53Z) - Learning Cautiously in Federated Learning with Noisy and Heterogeneous
Clients [4.782145666637457]
フェデレートラーニング(Federated Learning, FL)は、プライバシ保証と協調トレーニングを行う分散フレームワークである。
実世界のシナリオでは、クライアントはアノテーションの品質(ラベルノイズ)が低い非IIDデータ(ローカルクラス不均衡)を持つかもしれない。
我々は、追加のクリーンプロキシデータセットを使わずにFedCNIを提案する。
これには、耐雑音性のある局所解法と、ロバストなグローバルアグリゲータが含まれる。
論文 参考訳(メタデータ) (2023-04-06T06:47:14Z) - Adapting to Online Label Shift with Provable Guarantees [137.89382409682233]
オンラインラベルシフトの問題を定式化し,検討する。
非定常性と監督の欠如は、この問題に取り組むことを困難にしている。
我々のアルゴリズムは最適な動的後悔を享受しており、性能が透かしの性質と競合していることを示している。
論文 参考訳(メタデータ) (2022-07-05T15:43:14Z) - FedNoiL: A Simple Two-Level Sampling Method for Federated Learning with
Noisy Labels [49.47228898303909]
フェデレートラーニング(FL)は、トレーニングデータが収集され、ローカルデバイスに配置されている間、サーバ側のグローバルモデルをトレーニングすることを目的としている。
ノイズラベルの局所的なトレーニングは、集約を通じてグローバルモデルに破壊的な破壊的な、ノイズラベルへの過度な適合をもたらす可能性がある。
サーバ上でよりロバストなグローバルアグリゲーションを実現するため,クライアントを選択するための単純な2レベルサンプリング手法「FedNoiL」を開発した。
論文 参考訳(メタデータ) (2022-05-20T12:06:39Z) - Unsupervised Domain Adaptive Salient Object Detection Through
Uncertainty-Aware Pseudo-Label Learning [104.00026716576546]
そこで本研究では,手動のアノテーションを使わずに,自然に高いピクセルラベル品質を有する合成・クリーンなラベルから,サリエンスを学習することを提案する。
提案手法は,複数のベンチマークデータセット上で,既存の最先端の深層教師なしSOD法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-02-26T16:03:55Z) - Feature Diversity Learning with Sample Dropout for Unsupervised Domain
Adaptive Person Re-identification [0.0]
本稿では,ノイズの多い擬似ラベルを限定することで,より優れた一般化能力を持つ特徴表現を学習する手法を提案する。
我々は,古典的な相互学習アーキテクチャの下で,FDL(Feature Diversity Learning)と呼ばれる新しい手法を提案する。
実験の結果,提案するFDL-SDは,複数のベンチマークデータセット上での最先端性能を実現することがわかった。
論文 参考訳(メタデータ) (2022-01-25T10:10:48Z) - Open-set Label Noise Can Improve Robustness Against Inherent Label Noise [27.885927200376386]
オープンセットノイズラベルは非毒性であり, 固有ノイズラベルに対するロバスト性にも寄与することを示した。
本研究では,動的雑音ラベル(ODNL)を用いたオープンセットサンプルをトレーニングに導入することで,シンプルかつ効果的な正規化を提案する。
論文 参考訳(メタデータ) (2021-06-21T07:15:50Z) - In Defense of Pseudo-Labeling: An Uncertainty-Aware Pseudo-label
Selection Framework for Semi-Supervised Learning [53.1047775185362]
Pseudo-labeling (PL) は一般的な SSL アプローチで、この制約はありませんが、当初の処方では比較的不十分です。
PLは不整合モデルからの誤った高い信頼度予測により性能が低下していると論じる。
そこで本研究では,疑似ラベリング精度を向上させるための不確実性認識型擬似ラベル選択(ups)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-15T23:29:57Z) - Environment Inference for Invariant Learning [9.63004099102596]
環境推論を組み込んだドメイン不変学習フレームワークであるEIILを提案する。
EIILは環境ラベルを使わずにCMNISTベンチマークの不変学習法より優れていることを示す。
また、EIILとアルゴリズムフェアネスの接続を確立することにより、公平な予測問題において、EIILは精度とキャリブレーションを改善することができる。
論文 参考訳(メタデータ) (2020-10-14T17:11:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。