論文の概要: Noise-Aware Generalization: Robustness to In-Domain Noise and Out-of-Domain Generalization
- arxiv url: http://arxiv.org/abs/2504.02996v1
- Date: Thu, 03 Apr 2025 19:37:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-07 14:49:05.304141
- Title: Noise-Aware Generalization: Robustness to In-Domain Noise and Out-of-Domain Generalization
- Title(参考訳): 騒音を考慮した一般化:内部雑音に対するロバストさと外部一般化
- Authors: Siqi Wang, Aoming Liu, Bryan A. Plummer,
- Abstract要約: マルチソースドメイン一般化(DG)は、モデルロバストネスを新しいディストリビューションに改善することを目的としている。
しかし、DG法はしばしばラベルノイズの影響を見落とし、訓練中にモデルを混乱させ、性能を低下させる。
本稿では,分布シフトとラベルノイズの両方でモデルを評価する,この未探索空間について検討する。
提案するDL4ND手法は,単一領域内で識別不可能なノイズサンプルが,各領域で比較した場合に大きく変化する場合が多いという観測を生かして,ノイズ検出を改善する。
- 参考スコア(独自算出の注目度): 19.405975017917957
- License:
- Abstract: Multi-source Domain Generalization (DG) aims to improve model robustness to new distributions. However, DG methods often overlook the effect of label noise, which can confuse a model during training, reducing performance. Limited prior work has analyzed DG method's noise-robustness, typically focused on an analysis of existing methods rather than new solutions. In this paper, we investigate this underexplored space, where models are evaluated under both distribution shifts and label noise, which we refer to as Noise-Aware Generalization (NAG). A natural solution to address label noise would be to combine a Learning with Noisy Labels (LNL) method with those from DG. Many LNL methods aim to detect distribution shifts in a class's samples, i.e., they assume that distribution shifts often correspond to label noise. However, in NAG distribution shifts can be due to label noise or domain shifts, breaking the assumptions used by LNL methods. A naive solution is to make a similar assumption made by many DG methods, where we presume to have domain labels during training, enabling us to isolate the two types of shifts. However, this ignores valuable cross-domain information. Specifically, our proposed DL4ND approach improves noise detection by taking advantage of the observation that noisy samples that may appear indistinguishable within a single domain often show greater variation when compared across domains. Experiments show that DL4ND significantly improves performance across four diverse datasets, offering a promising direction for tackling NAG.
- Abstract(参考訳): マルチソースドメイン一般化(DG)は、モデルロバストネスを新しいディストリビューションに改善することを目的としている。
しかし、DG法はしばしばラベルノイズの影響を見落とし、訓練中にモデルを混乱させ、性能を低下させる。
限定的な先行研究は、DG法のノイズロス性を分析し、通常、新しい解ではなく既存の方法の分析に焦点をあてている。
本稿では,分布シフトとラベルノイズの両方でモデルを評価し,これをノイズ・アウェア・ジェネレーション(NAG)と呼ぶ。
ラベルノイズに対処するための自然な解決策は、Learning with Noisy Labels (LNL) 法とDGの手法を組み合わせることである。
多くのLNL法は、クラスサンプルの分布シフトを検出することを目的としており、すなわち、分布シフトがラベルノイズによく対応すると仮定する。
しかし、NAG分布シフトはラベルノイズやドメインシフトによるものであり、LNL法で用いられる仮定を破る。
単純な解決策は、トレーニング中にドメインラベルを持つと仮定する、多くのDGメソッドによる同様の仮定を行うことで、2つのタイプのシフトを分離できる。
しかし、これは貴重なクロスドメイン情報を無視する。
具体的には,1つの領域で識別不可能なノイズサンプルが,ドメイン間で比較した場合,大きな変動を示す場合が多いという観測を活かして,DL4ND法によりノイズ検出が向上する。
実験によると、DL4NDは4つの多様なデータセット間でパフォーマンスを著しく改善し、NAGに取り組む上で有望な方向を提供する。
関連論文リスト
- Mitigating Label Noise using Prompt-Based Hyperbolic Meta-Learning in Open-Set Domain Generalization [40.7795100916718]
オープンセットドメインの一般化は、よく知られたカテゴリを正確に予測するモデルを必要とする難しいタスクである。
ラベルノイズはモデル最適化を誤解させ、新しい領域におけるオープンセット認識の課題を悪化させる。
ラベル付き雑音認識メタラーニングのための双曲型カテゴリのプロトタイプを統合するフレームワークであるHyProMetaを提案する。
論文 参考訳(メタデータ) (2024-12-24T11:00:23Z) - Generalize or Detect? Towards Robust Semantic Segmentation Under Multiple Distribution Shifts [56.57141696245328]
斬新なクラスとドメインの両方が存在するようなオープンワールドシナリオでは、理想的なセグメンテーションモデルは安全のために異常なクラスを検出する必要がある。
既存の方法はドメインレベルとセマンティックレベルの分散シフトを区別するのに苦労することが多い。
論文 参考訳(メタデータ) (2024-11-06T11:03:02Z) - Robustness to Subpopulation Shift with Domain Label Noise via Regularized Annotation of Domains [27.524318404316013]
明示的なドメインアノテーションを必要とせずに、ロバストな最終層分類器をトレーニングするために、ドメインの規則化された依存(RAD)を導入します。
RADは、いくつかの公開データセットのトレーニングデータにおいて、5%のノイズしか持たない最先端のアノテーション-リライアントメソッドよりも優れています。
論文 参考訳(メタデータ) (2024-02-16T19:35:42Z) - Feature Noise Boosts DNN Generalization under Label Noise [65.36889005555669]
トレーニングデータにおけるラベルノイズの存在は、ディープニューラルネットワーク(DNN)の一般化に大きな影響を与える
本研究では,学習データの特徴に直接ノイズを付加する単純な特徴雑音法を,理論的に導入し,理論的に実証する。
論文 参考訳(メタデータ) (2023-08-03T08:31:31Z) - Generative Model Based Noise Robust Training for Unsupervised Domain
Adaptation [108.11783463263328]
本稿では, 生成モデルに基づくノイズ・ロバスト訓練法(GeNRT)を提案する。
ラベルノイズを緩和しながらドメインシフトを除去する。
Office-Home、PACS、Digit-Fiveの実験は、GeNRTが最先端のメソッドに匹敵するパフォーマンスを実現していることを示している。
論文 参考訳(メタデータ) (2023-03-10T06:43:55Z) - Latent Class-Conditional Noise Model [54.56899309997246]
本稿では,ベイズ的枠組みの下での雑音遷移をパラメータ化するためのLatent Class-Conditional Noise Model (LCCN)を提案する。
次に、Gibs sampler を用いて遅延真のラベルを効率的に推測できる LCCN の動的ラベル回帰法を導出する。
提案手法は,サンプルのミニバッチから事前の任意チューニングを回避するため,ノイズ遷移の安定な更新を保護している。
論文 参考訳(メタデータ) (2023-02-19T15:24:37Z) - Neighborhood Collective Estimation for Noisy Label Identification and
Correction [92.20697827784426]
ノイズラベルを用いた学習(LNL)は,ノイズラベルに対するモデルオーバーフィットの効果を軽減し,モデル性能と一般化を改善するための戦略を設計することを目的としている。
近年の進歩は、個々のサンプルのラベル分布を予測し、ノイズ検証とノイズラベル補正を行い、容易に確認バイアスを生じさせる。
提案手法では, 候補サンプルの予測信頼性を, 特徴空間近傍と対比することにより再推定する。
論文 参考訳(メタデータ) (2022-08-05T14:47:22Z) - Towards Robust Cross-domain Image Understanding with Unsupervised Noise
Removal [18.21213151403402]
ソース領域がノイズである場合に、クロスドメイン画像理解のための現代ドメイン適応手法が不十分であることが判明した。
Weakly Supervised Domain Adaptation (WSDA) のための新しいノイズ耐性ドメイン適応法を提案する。
新型コロナウイルスおよび電子商取引データセットの一般画像と医用画像の両面において,本手法の有効性を評価するため,広範な実験を行った。
論文 参考訳(メタデータ) (2021-09-09T14:06:59Z) - Adaptive Pseudo-Label Refinement by Negative Ensemble Learning for
Source-Free Unsupervised Domain Adaptation [35.728603077621564]
既存のUnsupervised Domain Adaptation (UDA)メソッドは、トレーニング中にソースとターゲットのドメインデータを同時に利用できると仮定する。
訓練済みのソースモデルは、よく知られたドメインシフトの問題により、ターゲットに対して性能が悪くても、常に利用可能であると考えられている。
適応型ノイズフィルタリングと擬似ラベル改良に取り組むための統一手法を提案する。
論文 参考訳(メタデータ) (2021-03-29T22:18:34Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。