論文の概要: Can We Treat Noisy Labels as Accurate?
- arxiv url: http://arxiv.org/abs/2405.12969v2
- Date: Sun, 14 Sep 2025 02:36:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:22.610772
- Title: Can We Treat Noisy Labels as Accurate?
- Title(参考訳): ノイズラベルを正確に扱えるか?
- Authors: Yuxiang Zheng, Zhongyi Han, Yilong Yin, Xin Gao, Tongliang Liu,
- Abstract要約: ノイズラベルは、機械学習モデルの精度と一般化を著しく妨げている。
ノイズラベルからの学習におけるパラダイムシフトであるEchoAlignを提案する。
30%のインスタンス依存ノイズの下では、EchoSelectは以前の方法と比較して、正しくラベル付けされたサンプルの約2倍の数を保持している。
- 参考スコア(独自算出の注目度): 87.23815842898722
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Noisy labels significantly hinder the accuracy and generalization of machine learning models, particularly when resulting from ambiguous instance features that complicate correct labeling. Traditional approaches, such as those relying on transition matrices for label correction, often struggle to effectively resolve such ambiguity, due to their inability to capture complex relationships between instances and noisy labels. In this paper, we propose EchoAlign, a paradigm shift in learning from noisy labels. Unlike previous methods that attempt to correct labels, EchoAlign treats noisy labels ($\tilde{Y}$) as accurate and modifies corresponding instances ($X$) to better align with these labels. The EchoAlign framework comprises two main components: (1) EchoMod leverages controllable generative models to selectively modify instance features, achieving alignment with noisy labels while preserving intrinsic instance characteristics such as shape, texture, and semantic identity. (2) EchoSelect mitigates distribution shifts introduced by instance modifications by strategically retaining a substantial subset of original instances with correct labels. Specifically, EchoSelect exploits feature similarity distributions between original and modified instances to accurately distinguish between correctly and incorrectly labeled samples. Extensive experiments across three benchmark datasets demonstrate that EchoAlign significantly outperforms state-of-the-art methods, particularly in high-noise environments, achieving superior accuracy and robustness. Notably, under 30% instance-dependent noise, EchoSelect retains nearly twice the number of correctly labeled samples compared to previous methods, maintaining 99% selection accuracy, thereby clearly illustrating the effectiveness of EchoAlign. The implementation of EchoAlign is publicly available at https://github.com/KevinCarpricorn/EchoAlign/tree/main.
- Abstract(参考訳): ノイズラベルは、特に正しいラベル付けを複雑にするあいまいなインスタンス機能によって、機械学習モデルの精度と一般化を著しく妨げます。
ラベル修正のために遷移行列に依存するような従来のアプローチは、インスタンスとノイズラベルの間の複雑な関係を捉えることができないため、このような曖昧さを効果的に解決するのに苦労することが多い。
本稿では,雑音ラベルからの学習におけるパラダイムシフトであるEchoAlignを提案する。
ラベルを修正しようとする従来の方法とは異なり、EchoAlignはノイズラベル($\tilde{Y}$)を正確に扱い、対応するインスタンス($X$)を修正して、これらのラベルとの整合性を改善する。
EchoModは、制御可能な生成モデルを利用して、インスタンスの特徴を選択的に修正し、形状、テクスチャ、セマンティックアイデンティティといった固有のインスタンス特性を保持しながら、ノイズの多いラベルとの整合性を達成する。
2) EchoSelectは、正しいラベルを持つ元のインスタンスのかなりのサブセットを戦略的に保持することにより、インスタンス修正によって導入された分散シフトを緩和する。
具体的には、EchoSelectはオリジナルインスタンスと修正インスタンスの類似度分布を利用して、正しくラベル付けされたサンプルと正しく区別する。
3つのベンチマークデータセットにわたる大規模な実験により、EchoAlignは最先端の手法、特に高雑音環境において大幅に優れ、精度と堅牢性に優れることが示された。
特に、30%のインスタンス依存ノイズの下では、EchoSelectは従来の方法に比べて2倍近い正確なラベル付きサンプル数を保持し、99%の選択精度を維持し、EchoAlignの有効性を明確に示している。
EchoAlignの実装はhttps://github.com/KevinCarpricorn/EchoAlign/tree/mainで公開されている。
関連論文リスト
- Correcting Noisy Multilabel Predictions: Modeling Label Noise through Latent Space Shifts [4.795811957412855]
ほとんどの現実世界の機械学習アプリケーションでは、データのノイズは避けられないように思える。
マルチラベル分類における雑音ラベル学習の分野について検討した。
我々のモデルは、雑音のラベル付けは潜伏変数の変化から生じると仮定し、より堅牢で有益な学習手段を提供する。
論文 参考訳(メタデータ) (2025-02-20T05:41:52Z) - Extracting Clean and Balanced Subset for Noisy Long-tailed Classification [66.47809135771698]
そこで我々は,分布マッチングの観点から,クラスプロトタイプを用いた新しい擬似ラベリング手法を開発した。
手動で特定の確率尺度を設定することで、ノイズと長い尾を持つデータの副作用を同時に減らすことができる。
本手法は, クリーンなラベル付きクラスバランスサブセットを抽出し, ラベルノイズ付きロングテール分類において, 効果的な性能向上を実現する。
論文 参考訳(メタデータ) (2024-04-10T07:34:37Z) - DyGen: Learning from Noisy Labels via Dynamics-Enhanced Generative
Modeling [15.773948716619728]
ノイズの多いラベルを持つ微調整言語モデルでは、モデルがラベルノイズに容易に適合し、性能が低下する。
ノイズラベルから学習するほとんどの既存の方法は、静的入力機能を使ってノイズを除去する。
埋め込み空間における動的パターンを用いて雑音ラベル予測を改善するDynamics-Enhanced Generative Model (DyGen)を提案する。
論文 参考訳(メタデータ) (2023-05-30T20:19:41Z) - Learning to Detect Noisy Labels Using Model-Based Features [16.681748918518075]
Select-Enhanced Noisy label Training (SENT)を提案する。
SENTは、データ駆動の柔軟性を保ちながら、メタ学習に依存しない。
自己学習とラベルの破損の設定の下で、強力なベースラインよりもパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2022-12-28T10:12:13Z) - SELC: Self-Ensemble Label Correction Improves Learning with Noisy Labels [4.876988315151037]
ディープニューラルネットワークはノイズラベルを過度に適合させる傾向があり、結果として一般化性能は低下する。
ノイズラベルを段階的に補正し,モデルを改良する自己アンサンブルラベル補正法(SELC)を提案する。
SELCは、クラス条件、インスタンス依存、および実世界のラベルノイズの存在において、より有望で安定した結果を得る。
論文 参考訳(メタデータ) (2022-05-02T18:42:47Z) - Contrastive Test-Time Adaptation [83.73506803142693]
本稿では,自己指導型コントラスト学習を活用して特徴学習を支援する新しい手法を提案する。
擬似ラベルをオンラインで作成し、ターゲットのフィーチャースペースに最も近い隣人の間でソフト投票によってそれらを洗練します。
我々の手法であるAdaContrastは、主要なベンチマーク上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-04-21T19:17:22Z) - S3: Supervised Self-supervised Learning under Label Noise [53.02249460567745]
本稿では,ラベルノイズの存在下での分類の問題に対処する。
提案手法の核心は,サンプルのアノテートラベルと特徴空間内のその近傍のラベルの分布との整合性に依存するサンプル選択機構である。
提案手法は,CIFARCIFAR100とWebVisionやANIMAL-10Nなどの実環境ノイズデータセットの両方で,従来の手法をはるかに上回っている。
論文 参考訳(メタデータ) (2021-11-22T15:49:20Z) - Approximating Instance-Dependent Noise via Instance-Confidence Embedding [87.65718705642819]
マルチクラス分類におけるラベルノイズは、学習システムの展開にとって大きな障害である。
インスタンス依存ノイズ(IDN)モデルを調査し、IDNの効率的な近似を提案し、インスタンス固有のラベル破損を捕捉する。
論文 参考訳(メタデータ) (2021-03-25T02:33:30Z) - Extended T: Learning with Mixed Closed-set and Open-set Noisy Labels [86.5943044285146]
ラベルノイズ遷移行列$T$は、真のラベルがノイズのあるものへと反転する確率を反映する。
本稿では,閉集合と開集合の混在したラベル雑音下での学習に着目した。
本手法は,従来の最先端のラベル雑音学習法よりも頑健な性能を追求し,混合ラベル雑音をモデル化する。
論文 参考訳(メタデータ) (2020-12-02T02:42:45Z) - Class2Simi: A Noise Reduction Perspective on Learning with Noisy Labels [98.13491369929798]
そこで我々は,ノイズのあるクラスラベルを持つデータポイントを,ノイズの多い類似ラベルを持つデータペアに変換するClass2Simiというフレームワークを提案する。
Class2Simiは、この変換がミニバッチのオンザフライであるだけでなく、モデル予測上の損失をペアワイズに変化させるため、計算的に効率的である。
論文 参考訳(メタデータ) (2020-06-14T07:55:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。