論文の概要: Detect and Correct: A Selective Noise Correction Method for Learning with Noisy Labels
- arxiv url: http://arxiv.org/abs/2505.13342v1
- Date: Mon, 19 May 2025 16:49:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.749059
- Title: Detect and Correct: A Selective Noise Correction Method for Learning with Noisy Labels
- Title(参考訳): 検出と訂正:雑音ラベルを用いた学習のための選択的雑音補正法
- Authors: Yuval Grinberg, Nimrod Harel, Jacob Goldberger, Ofir Lindenbaum,
- Abstract要約: ノイズラベル(noisy labels)としても知られる偽アノテートサンプルは、ディープラーニングモデルの性能を著しく損なう可能性がある。
ノイズラベルを用いた学習には,大域的雑音推定とデータフィルタリングの2つのアプローチがある。
本手法は, 損失分布に基づいて, うるさいサンプルを同定する。
次に、ノイズとクリーンなサンプルを分離する選択プロセスを適用し、ノイズ遷移行列を学習してノイズのあるサンプルの損失を補正し、クリーンなデータは影響を受けないままにしておく。
- 参考スコア(独自算出の注目度): 14.577138753507203
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Falsely annotated samples, also known as noisy labels, can significantly harm the performance of deep learning models. Two main approaches for learning with noisy labels are global noise estimation and data filtering. Global noise estimation approximates the noise across the entire dataset using a noise transition matrix, but it can unnecessarily adjust correct labels, leaving room for local improvements. Data filtering, on the other hand, discards potentially noisy samples but risks losing valuable data. Our method identifies potentially noisy samples based on their loss distribution. We then apply a selection process to separate noisy and clean samples and learn a noise transition matrix to correct the loss for noisy samples while leaving the clean data unaffected, thereby improving the training process. Our approach ensures robust learning and enhanced model performance by preserving valuable information from noisy samples and refining the correction process. We applied our method to standard image datasets (MNIST, CIFAR-10, and CIFAR-100) and a biological scRNA-seq cell-type annotation dataset. We observed a significant improvement in model accuracy and robustness compared to traditional methods.
- Abstract(参考訳): ノイズラベル(noisy labels)としても知られる偽アノテートサンプルは、ディープラーニングモデルの性能を著しく損なう可能性がある。
ノイズラベルを用いた学習には,大域的雑音推定とデータフィルタリングの2つのアプローチがある。
グローバルノイズ推定は、ノイズ遷移行列を使用してデータセット全体のノイズを近似するが、不必要に適切なラベルを調整することができ、局所的な改善の余地を残している。
一方、データフィルタリングは、潜在的にノイズの多いサンプルを捨てるが、貴重なデータを失うリスクがある。
本手法は, 損失分布に基づいて, うるさいサンプルを同定する。
次に、ノイズとクリーンなサンプルを分離する選択プロセスを適用し、ノイズ遷移行列を学習し、クリーンなデータを残さずにノイズ遷移サンプルの損失を補正し、トレーニングプロセスを改善する。
提案手法は,ノイズのあるサンプルから貴重な情報を保存し,修正プロセスを改善することにより,堅牢な学習とモデル性能の向上を実現する。
提案手法を標準画像データセット(MNIST, CIFAR-10, CIFAR-100)および生物学的scRNA-seq細胞型アノテーションデータセットに適用した。
従来の手法に比べてモデル精度とロバスト性は著しく向上した。
関連論文リスト
- Dataset Distillers Are Good Label Denoisers In the Wild [16.626153947696743]
ノイズ除去にデータセット蒸留を利用する新しい手法を提案する。
本手法は,既存の手法に共通するフィードバックループを回避し,訓練効率を向上させる。
各種ノイズ条件下での3つの代表的なデータセット蒸留法(DATM, DANCE, RCIG)を厳格に評価した。
論文 参考訳(メタデータ) (2024-11-18T06:26:41Z) - Combating Label Noise With A General Surrogate Model For Sample Selection [77.45468386115306]
本稿では,視覚言語サロゲートモデルCLIPを用いて,雑音の多いサンプルを自動的にフィルタリングする手法を提案する。
提案手法の有効性を実世界および合成ノイズデータセットで検証した。
論文 参考訳(メタデータ) (2023-10-16T14:43:27Z) - Learning from Noisy Labels with Coarse-to-Fine Sample Credibility
Modeling [22.62790706276081]
ノイズの多いラベルでディープニューラルネットワーク(DNN)を訓練することは事実上難しい。
従来の取り組みでは、統合されたデノナイジングフローで部分データや完全なデータを扱う傾向があります。
本研究では,ノイズの多いデータを分割・分散的に処理するために,CREMAと呼ばれる粗大な頑健な学習手法を提案する。
論文 参考訳(メタデータ) (2022-08-23T02:06:38Z) - Neighborhood Collective Estimation for Noisy Label Identification and
Correction [92.20697827784426]
ノイズラベルを用いた学習(LNL)は,ノイズラベルに対するモデルオーバーフィットの効果を軽減し,モデル性能と一般化を改善するための戦略を設計することを目的としている。
近年の進歩は、個々のサンプルのラベル分布を予測し、ノイズ検証とノイズラベル補正を行い、容易に確認バイアスを生じさせる。
提案手法では, 候補サンプルの予測信頼性を, 特徴空間近傍と対比することにより再推定する。
論文 参考訳(メタデータ) (2022-08-05T14:47:22Z) - Robust Meta-learning with Sampling Noise and Label Noise via
Eigen-Reptile [78.1212767880785]
Meta-learnerは、利用可能なサンプルがわずかしかないため、過度に適合する傾向がある。
ノイズの多いラベルでデータを扱う場合、メタラーナーはラベルノイズに対して非常に敏感になる可能性がある。
本稿では,タスク固有のパラメータの主要な方向でメタパラメータを更新するEigen-Reptile(ER)を提案する。
論文 参考訳(メタデータ) (2022-06-04T08:48:02Z) - UNICON: Combating Label Noise Through Uniform Selection and Contrastive
Learning [89.56465237941013]
UNICONは,高ラベル雑音に対して頑健な,シンプルで効果的なサンプル選択法である。
90%のノイズレートでCIFAR100データセットの最先端データよりも11.4%改善した。
論文 参考訳(メタデータ) (2022-03-28T07:36:36Z) - Hard Sample Aware Noise Robust Learning for Histopathology Image
Classification [4.75542005200538]
病理組織像分類のための新しいハードサンプル認識型ノイズロバスト学習法を提案する。
本研究は, 難燃性難燃性試料と難燃性試料とを識別するため, 簡易・難燃性検出モデルを構築した。
本稿では,雑音抑圧・高強度化(NSHE)方式を提案する。
論文 参考訳(メタデータ) (2021-12-05T11:07:55Z) - Training Classifiers that are Universally Robust to All Label Noise
Levels [91.13870793906968]
ディープニューラルネットワークは、ラベルノイズの存在下で過度に適合する傾向がある。
ポジティヴ・アンラベルラーニングの新たなサブカテゴリを取り入れた蒸留ベースのフレームワークを提案する。
我々の枠組みは概して中~高騒音レベルにおいて優れています。
論文 参考訳(メタデータ) (2021-05-27T13:49:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。