論文の概要: DenoGrad: Deep Gradient Denoising Framework for Enhancing the Performance of Interpretable AI Models
- arxiv url: http://arxiv.org/abs/2511.10161v1
- Date: Fri, 14 Nov 2025 01:36:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.722909
- Title: DenoGrad: Deep Gradient Denoising Framework for Enhancing the Performance of Interpretable AI Models
- Title(参考訳): DenoGrad: 解釈可能なAIモデルのパフォーマンスを高めるためのディープグレードのDenoisingフレームワーク
- Authors: J. Javier Alonso-Ramos, Ignacio Aguilera-Martos, Andrés Herrera-Poyatos, Francisco Herrera,
- Abstract要約: ノイズのあるサンプルを検出し,調整するための新しいインスタンスDenoiserフレームワークであるDenoGradを提案する。
DenoGradは、ノイズの多いインスタンスを動的に修正し、問題のデータ分散を保存し、AIモデルを改善する。
- 参考スコア(独自算出の注目度): 3.189189590825304
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The performance of Machine Learning (ML) models, particularly those operating within the Interpretable Artificial Intelligence (Interpretable AI) framework, is significantly affected by the presence of noise in both training and production data. Denoising has therefore become a critical preprocessing step, typically categorized into instance removal and instance correction techniques. However, existing correction approaches often degrade performance or oversimplify the problem by altering the original data distribution. This leads to unrealistic scenarios and biased models, which is particularly problematic in contexts where interpretable AI models are employed, as their interpretability depends on the fidelity of the underlying data patterns. In this paper, we argue that defining noise independently of the solution may be ineffective, as its nature can vary significantly across tasks and datasets. Using a task-specific high quality solution as a reference can provide a more precise and adaptable noise definition. To this end, we propose DenoGrad, a novel Gradient-based instance Denoiser framework that leverages gradients from an accurate Deep Learning (DL) model trained on the target data -- regardless of the specific task -- to detect and adjust noisy samples. Unlike conventional approaches, DenoGrad dynamically corrects noisy instances, preserving problem's data distribution, and improving AI models robustness. DenoGrad is validated on both tabular and time series datasets under various noise settings against the state-of-the-art. DenoGrad outperforms existing denoising strategies, enhancing the performance of interpretable IA models while standing out as the only high quality approach that preserves the original data distribution.
- Abstract(参考訳): 機械学習(ML)モデルの性能、特に解釈可能な人工知能(Interpretable Artificial Intelligence, 解釈可能なAI)フレームワークで動作しているものは、トレーニングデータと運用データの両方でノイズの存在によって大きく影響を受ける。
したがって、Denoisingは重要な前処理ステップとなり、典型的にはインスタンス削除とインスタンス修正のテクニックに分類される。
しかし、既存の補正手法は、しばしば性能を低下させるか、元のデータ分布を変更することで問題を単純化する。
これは非現実的なシナリオやバイアスドモデルにつながり、解釈可能なAIモデルが使用される状況では特に問題となる。
本稿では,その性質がタスクやデータセットによって大きく異なるため,解から独立してノイズを定義することは効果がないと論じる。
タスク固有の高品質なソリューションを参照として使用すると、より正確で適応可能なノイズ定義が得られる。
この目的のために、ターゲットデータ(特定のタスクに関係なく)でトレーニングされた正確なDeep Learning(DL)モデルから勾配を利用してノイズのあるサンプルを検出し、調整する、新しいGradientベースのインスタンスDenoiserフレームワークであるDenoGradを提案する。
従来のアプローチとは異なり、DenoGradはノイズの多いインスタンスを動的に修正し、問題のデータ分散を保存し、AIモデルの堅牢性を改善する。
DenoGradは、様々なノイズ設定の下で、表と時系列の両方のデータセットで検証される。
DenoGradは既存のデノナイジング戦略を上回り、解釈可能なIAモデルの性能を高めつつ、元のデータ分布を保存する唯一の高品質なアプローチとして際立っている。
関連論文リスト
- Handling Label Noise via Instance-Level Difficulty Modeling and Dynamic Optimization [40.87754131017707]
ディープニューラルネットワークは、ノイズの多い監視の下で一般化性能が低下する。
既存のメソッドでは、クリーンなサブセットの分離やノイズのあるラベルの修正に重点を置いている。
本稿では,インスタンスレベルの最適化が可能な新しい2段階雑音学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-01T19:12:58Z) - Impact of Noisy Supervision in Foundation Model Learning [91.56591923244943]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - Realistic Noise Synthesis with Diffusion Models [44.404059914652194]
ディープラーニングモデルには、大規模な実世界のトレーニングデータが必要です。
本稿では,これらの課題に対処するために拡散モデルを用いた新しい実音合成拡散器(RNSD)法を提案する。
論文 参考訳(メタデータ) (2023-05-23T12:56:01Z) - A Self-Refinement Strategy for Noise Reduction in Grammatical Error
Correction [54.569707226277735]
既存の文法的誤り訂正(GEC)のアプローチは、手動で作成したGECデータセットによる教師あり学習に依存している。
誤りが不適切に編集されたり、修正されなかったりする「ノイズ」は無視できないほどある。
本稿では,既存のモデルの予測整合性を利用して,これらのデータセットをデノマイズする自己補充手法を提案する。
論文 参考訳(メタデータ) (2020-10-07T04:45:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。