論文の概要: SelectMix: Enhancing Label Noise Robustness through Targeted Sample Mixing
- arxiv url: http://arxiv.org/abs/2509.11265v1
- Date: Sun, 14 Sep 2025 13:37:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:23.003284
- Title: SelectMix: Enhancing Label Noise Robustness through Targeted Sample Mixing
- Title(参考訳): SelectMix: ターゲットサンプル混合によるラベルノイズのロバスト化
- Authors: Qiuhao Liu, Ling Li, Yao Lu, Qi Xuan, Zhaowei Zhu, Jiaheng Wei,
- Abstract要約: SelectMixは、ノイズラベルに適した信頼性誘導混合フレームワークである。
SelectMixは,ノイズラベルを用いた学習において,その有効性と堅牢性を検証し,高いベースライン法を一貫して上回ることを示す。
- 参考スコア(独自算出の注目度): 22.516209617656077
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks tend to memorize noisy labels, severely degrading their generalization performance. Although Mixup has demonstrated effectiveness in improving generalization and robustness, existing Mixup-based methods typically perform indiscriminate mixing without principled guidance on sample selection and mixing strategy, inadvertently propagating noisy supervision. To overcome these limitations, we propose SelectMix, a confidence-guided mixing framework explicitly tailored for noisy labels. SelectMix first identifies potentially noisy or ambiguous samples through confidence based mismatch analysis using K-fold cross-validation, then selectively blends identified uncertain samples with confidently predicted peers from their potential classes. Furthermore, SelectMix employs soft labels derived from all classes involved in the mixing process, ensuring the labels accurately represent the composition of the mixed samples, thus aligning supervision signals closely with the actual mixed inputs. Through extensive theoretical analysis and empirical evaluations on multiple synthetic (MNIST, Fashion-MNIST, CIFAR-10, CIFAR-100) and real-world benchmark datasets (CIFAR-N, MNIST and Clothing1M), we demonstrate that SelectMix consistently outperforms strong baseline methods, validating its effectiveness and robustness in learning with noisy labels.
- Abstract(参考訳): ディープニューラルネットワークはノイズの多いラベルを記憶し、一般化性能を著しく低下させる傾向がある。
Mixupは一般化とロバスト性を改善する効果を示したが、既存のMixupベースの手法は、通常、サンプル選択と混合戦略に関する原則的なガイダンスを使わずに無差別な混合を行う。
これらの制約を克服するために、我々は、ノイズラベル用に明示的に調整された信頼誘導混合フレームワークであるSelectMixを提案する。
SelectMixはまず、K-foldクロスバリデーションを用いた信頼に基づくミスマッチ分析を通じて、潜在的なノイズやあいまいなサンプルを識別し、特定された不確実なサンプルを潜在的なクラスから確実に予測されたピアと選択的にブレンドする。
さらに、SelectMixは混合プロセスに関わる全てのクラスから派生したソフトラベルを採用し、ラベルが混合サンプルの構成を正確に表現し、実際の混合入力と密に調整する。
マルチシンセサイザー(MNIST, Fashion-MNIST, CIFAR-10, CIFAR-100)と実世界のベンチマークデータセット(CIFAR-N, MNIST, Clothing1M)の広範な理論的解析と経験的評価により,SelectMixは強いベースライン法を一貫して上回り,ノイズラベルによる学習の有効性と堅牢性を検証した。
関連論文リスト
- RegMixMatch: Optimizing Mixup Utilization in Semi-Supervised Learning [0.7274730603514221]
半教師付きRegMixupは、さまざまなSSLベンチマークで最先端のパフォーマンスを達成する。
我々は,トップ2の予測クラスから低信頼度サンプルとその人工ラベルに情報を統合する,クラス認識ミックスアップ技術を開発した。
論文 参考訳(メタデータ) (2024-12-14T08:22:49Z) - Extracting Clean and Balanced Subset for Noisy Long-tailed Classification [66.47809135771698]
そこで我々は,分布マッチングの観点から,クラスプロトタイプを用いた新しい擬似ラベリング手法を開発した。
手動で特定の確率尺度を設定することで、ノイズと長い尾を持つデータの副作用を同時に減らすことができる。
本手法は, クリーンなラベル付きクラスバランスサブセットを抽出し, ラベルノイズ付きロングテール分類において, 効果的な性能向上を実現する。
論文 参考訳(メタデータ) (2024-04-10T07:34:37Z) - Pairwise Similarity Distribution Clustering for Noisy Label Learning [0.0]
ノイズラベル学習は、ノイズラベルを持つ大量のサンプルを使用してディープニューラルネットワークをトレーニングすることを目的としている。
トレーニングサンプルを1つのクリーンなセットと別のノイズのあるセットに分割する,単純で効果的なサンプル選択アルゴリズムを提案する。
CIFAR-10、CIFAR-100、Clothing1Mといった様々なベンチマークデータセットの実験結果は、最先端の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2024-04-02T11:30:22Z) - Noisy Label Classification using Label Noise Selection with Test-Time Augmentation Cross-Entropy and NoiseMix Learning [22.02829139522153]
本論文では,テスト時間拡張(TTA)クロスエントロピーを用いたラベルノイズ選択とNossMix法による分類器学習を用いたノイズラベルデータの学習手法を提案する。
ISIC-18公開皮膚病変診断データセットの実験において、提案したTTAクロスエントロピーは、ラベルノイズデータの検出において従来のクロスエントロピーとTTAの不確実性よりも優れていた。
論文 参考訳(メタデータ) (2022-12-01T13:05:20Z) - Learning from Noisy Labels with Coarse-to-Fine Sample Credibility
Modeling [22.62790706276081]
ノイズの多いラベルでディープニューラルネットワーク(DNN)を訓練することは事実上難しい。
従来の取り組みでは、統合されたデノナイジングフローで部分データや完全なデータを扱う傾向があります。
本研究では,ノイズの多いデータを分割・分散的に処理するために,CREMAと呼ばれる粗大な頑健な学習手法を提案する。
論文 参考訳(メタデータ) (2022-08-23T02:06:38Z) - Neighborhood Collective Estimation for Noisy Label Identification and
Correction [92.20697827784426]
ノイズラベルを用いた学習(LNL)は,ノイズラベルに対するモデルオーバーフィットの効果を軽減し,モデル性能と一般化を改善するための戦略を設計することを目的としている。
近年の進歩は、個々のサンプルのラベル分布を予測し、ノイズ検証とノイズラベル補正を行い、容易に確認バイアスを生じさせる。
提案手法では, 候補サンプルの予測信頼性を, 特徴空間近傍と対比することにより再推定する。
論文 参考訳(メタデータ) (2022-08-05T14:47:22Z) - Harnessing Hard Mixed Samples with Decoupled Regularizer [69.98746081734441]
Mixupは、決定境界を混合データで滑らかにすることで、ニューラルネットワークの一般化を改善する効率的なデータ拡張アプローチである。
本稿では,非結合型正規化器(Decoupled Mixup, DM)を用いた効率的な混合目標関数を提案する。
DMは、ミキシングの本来の滑らかさを損なうことなく、硬質混合試料を適応的に利用して識別特性をマイニングすることができる。
論文 参考訳(メタデータ) (2022-03-21T07:12:18Z) - S3: Supervised Self-supervised Learning under Label Noise [53.02249460567745]
本稿では,ラベルノイズの存在下での分類の問題に対処する。
提案手法の核心は,サンプルのアノテートラベルと特徴空間内のその近傍のラベルの分布との整合性に依存するサンプル選択機構である。
提案手法は,CIFARCIFAR100とWebVisionやANIMAL-10Nなどの実環境ノイズデータセットの両方で,従来の手法をはるかに上回っている。
論文 参考訳(メタデータ) (2021-11-22T15:49:20Z) - SnapMix: Semantically Proportional Mixing for Augmenting Fine-grained
Data [124.95585891086894]
提案はSemantically Proportional Mixing(SnapMix)と呼ばれる
クラスアクティベーションマップ(CAM)を利用して、きめ細かいデータを強化する際にラベルノイズを低減します。
本手法は既存の混合型アプローチを一貫して上回っている。
論文 参考訳(メタデータ) (2020-12-09T03:37:30Z) - DivideMix: Learning with Noisy Labels as Semi-supervised Learning [111.03364864022261]
ノイズラベルを学習するためのフレームワークであるDivideMixを提案する。
複数のベンチマークデータセットの実験は、最先端の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2020-02-18T06:20:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。