論文の概要: The Role of Noisy Data in Improving CNN Robustness for Image Classification
- arxiv url: http://arxiv.org/abs/2601.08043v1
- Date: Mon, 12 Jan 2026 22:26:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:18.969954
- Title: The Role of Noisy Data in Improving CNN Robustness for Image Classification
- Title(参考訳): 画像分類におけるCNNロバスト性向上におけるノイズデータの役割
- Authors: Oscar H. Ramírez-Agudelo, Nicoleta Gorea, Aliza Reif, Lorenzo Bonasera, Michael Karl,
- Abstract要約: 本稿では,学習データに制御ノイズを意図的に導入し,モデルロバスト性を向上させる効果について検討する。
Resnet-18モデルを用いた実験では、トレーニング中に10%のノイズデータを組み込むことで、テスト損失を著しく低減し、完全に破損したテスト条件下での精度を高めることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data quality plays a central role in the performance and robustness of convolutional neural networks (CNNs) for image classification. While high-quality data is often preferred for training, real-world inputs are frequently affected by noise and other distortions. This paper investigates the effect of deliberately introducing controlled noise into the training data to improve model robustness. Using the CIFAR-10 dataset, we evaluate the impact of three common corruptions, namely Gaussian noise, Salt-and-Pepper noise, and Gaussian blur at varying intensities and training set pollution levels. Experiments using a Resnet-18 model reveal that incorporating just 10\% noisy data during training is sufficient to significantly reduce test loss and enhance accuracy under fully corrupted test conditions, with minimal impact on clean-data performance. These findings suggest that strategic exposure to noise can act as a simple yet effective regularizer, offering a practical trade-off between traditional data cleanliness and real-world resilience.
- Abstract(参考訳): データ品質は、画像分類のための畳み込みニューラルネットワーク(CNN)の性能と堅牢性において中心的な役割を果たす。
高品質なデータはトレーニングに好まれることが多いが、実世界の入力はノイズやその他の歪みの影響を受けやすい。
本稿では,モデルロバスト性を改善するために,制御ノイズを学習データに意図的に導入する効果について検討する。
CIFAR-10データセットを用いて,ガウシアンノイズ,ソルト・アンド・ペッパーノイズ,ガウシアンブラーの3つの一般的な汚損の影響を異なる強度とトレーニングセットの汚染レベルで評価した。
Resnet-18モデルを用いた実験では、トレーニング中に10%のノイズデータのみを組み込むことで、完全に破損したテスト条件下でのテスト損失を著しく低減し、精度を高めることができ、クリーンデータのパフォーマンスに最小限の影響が与えられる。
これらの結果から,ノイズに対する戦略的露出は,従来のデータクリーンネスと現実のレジリエンスのトレードオフとして,シンプルで効果的な正則化器として機能する可能性が示唆された。
関連論文リスト
- Net2Net: When Un-trained Meets Pre-trained Networks for Robust Real-World Denoising [2.8933605229876656]
Net2Netは、非教師付きDIPと教師付き事前訓練モデルDRUNetの組み合わせである。
トレーニングされていないネットワークは、ラベル付きデータを必要とせずに、各入力画像のユニークなノイズ特性に適応する。
トレーニング済みのネットワークは、大規模なデータセットから学んだ表現を活用して、堅牢なノイズ付けパフォーマンスを提供する。
論文 参考訳(メタデータ) (2025-10-03T05:34:24Z) - Machine Unlearning for Robust DNNs: Attribution-Guided Partitioning and Neuron Pruning in Noisy Environments [5.8166742412657895]
ディープニューラルネットワーク(DNN)は、さまざまなドメインで顕著な成功を収めているが、ノイズやトレーニングデータによってそのパフォーマンスが著しく低下する可能性がある。
本稿では,帰属誘導型データパーティショニング,識別的ニューロンプルーニング,およびノイズのあるサンプルの影響を軽減するための微調整を目的とした新しいフレームワークを提案する。
CIFAR-10の標準リトレーニングよりも約10%の絶対精度向上を実現し,ラベルノイズを注入した。
論文 参考訳(メタデータ) (2025-06-13T09:37:11Z) - Learning from Noise: Enhancing DNNs for Event-Based Vision through Controlled Noise Injection [0.0]
イベントデータは、しばしばかなりのノイズに悩まされ、ディープラーニングモデルの性能と堅牢性に悪影響を及ぼす。
本研究では,各種事象雑音に対するロバスト性を高めるために,新しいノイズ注入訓練手法を提案する。
提案手法では,制御ノイズを直接トレーニングデータに導入し,モデルによるノイズ耐性表現の学習を可能にする。
論文 参考訳(メタデータ) (2025-06-04T13:10:26Z) - Impact of Noisy Supervision in Foundation Model Learning [91.56591923244943]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - Understanding and Mitigating the Label Noise in Pre-training on
Downstream Tasks [91.15120211190519]
本稿では、事前学習データセットにおけるノイズの性質を理解し、下流タスクへの影響を軽減することを目的とする。
雑音の悪影響を軽減するために特徴空間に適応する軽量ブラックボックスチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2023-09-29T06:18:15Z) - A Study on the Impact of Data Augmentation for Training Convolutional
Neural Networks in the Presence of Noisy Labels [14.998309259808236]
ラベルノイズは大規模な実世界のデータセットで一般的であり、その存在はディープニューラルネットワークのトレーニングプロセスに悪影響を及ぼす。
我々は、深層ニューラルネットワークをトレーニングするための設計選択として、データ拡張の影響を評価する。
データ拡張の適切な選択は、ラベルノイズに対するモデルロバスト性を大幅に改善できることを示す。
論文 参考訳(メタデータ) (2022-08-23T20:04:17Z) - Boosting Facial Expression Recognition by A Semi-Supervised Progressive
Teacher [54.50747989860957]
本稿では,信頼度の高いFERデータセットと大規模未ラベル表現画像を有効訓練に用いるための半教師付き学習アルゴリズム,Progressive Teacher (PT)を提案する。
RAF-DB と FERPlus を用いた実験により,RAF-DB で89.57% の精度で最先端の性能を実現する手法の有効性が検証された。
論文 参考訳(メタデータ) (2022-05-28T07:47:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。