論文の概要: DenoGrad: Deep Gradient Denoising Framework for Enhancing the Performance of Interpretable AI Models
- arxiv url: http://arxiv.org/abs/2511.10161v1
- Date: Fri, 14 Nov 2025 01:36:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.722909
- Title: DenoGrad: Deep Gradient Denoising Framework for Enhancing the Performance of Interpretable AI Models
- Title(参考訳): DenoGrad: 解釈可能なAIモデルのパフォーマンスを高めるためのディープグレードのDenoisingフレームワーク
- Authors: J. Javier Alonso-Ramos, Ignacio Aguilera-Martos, Andrés Herrera-Poyatos, Francisco Herrera,
- Abstract要約: ノイズのあるサンプルを検出し,調整するための新しいインスタンスDenoiserフレームワークであるDenoGradを提案する。
DenoGradは、ノイズの多いインスタンスを動的に修正し、問題のデータ分散を保存し、AIモデルを改善する。
- 参考スコア(独自算出の注目度): 3.189189590825304
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The performance of Machine Learning (ML) models, particularly those operating within the Interpretable Artificial Intelligence (Interpretable AI) framework, is significantly affected by the presence of noise in both training and production data. Denoising has therefore become a critical preprocessing step, typically categorized into instance removal and instance correction techniques. However, existing correction approaches often degrade performance or oversimplify the problem by altering the original data distribution. This leads to unrealistic scenarios and biased models, which is particularly problematic in contexts where interpretable AI models are employed, as their interpretability depends on the fidelity of the underlying data patterns. In this paper, we argue that defining noise independently of the solution may be ineffective, as its nature can vary significantly across tasks and datasets. Using a task-specific high quality solution as a reference can provide a more precise and adaptable noise definition. To this end, we propose DenoGrad, a novel Gradient-based instance Denoiser framework that leverages gradients from an accurate Deep Learning (DL) model trained on the target data -- regardless of the specific task -- to detect and adjust noisy samples. Unlike conventional approaches, DenoGrad dynamically corrects noisy instances, preserving problem's data distribution, and improving AI models robustness. DenoGrad is validated on both tabular and time series datasets under various noise settings against the state-of-the-art. DenoGrad outperforms existing denoising strategies, enhancing the performance of interpretable IA models while standing out as the only high quality approach that preserves the original data distribution.
- Abstract(参考訳): 機械学習(ML)モデルの性能、特に解釈可能な人工知能(Interpretable Artificial Intelligence, 解釈可能なAI)フレームワークで動作しているものは、トレーニングデータと運用データの両方でノイズの存在によって大きく影響を受ける。
したがって、Denoisingは重要な前処理ステップとなり、典型的にはインスタンス削除とインスタンス修正のテクニックに分類される。
しかし、既存の補正手法は、しばしば性能を低下させるか、元のデータ分布を変更することで問題を単純化する。
これは非現実的なシナリオやバイアスドモデルにつながり、解釈可能なAIモデルが使用される状況では特に問題となる。
本稿では,その性質がタスクやデータセットによって大きく異なるため,解から独立してノイズを定義することは効果がないと論じる。
タスク固有の高品質なソリューションを参照として使用すると、より正確で適応可能なノイズ定義が得られる。
この目的のために、ターゲットデータ(特定のタスクに関係なく)でトレーニングされた正確なDeep Learning(DL)モデルから勾配を利用してノイズのあるサンプルを検出し、調整する、新しいGradientベースのインスタンスDenoiserフレームワークであるDenoGradを提案する。
従来のアプローチとは異なり、DenoGradはノイズの多いインスタンスを動的に修正し、問題のデータ分散を保存し、AIモデルの堅牢性を改善する。
DenoGradは、様々なノイズ設定の下で、表と時系列の両方のデータセットで検証される。
DenoGradは既存のデノナイジング戦略を上回り、解釈可能なIAモデルの性能を高めつつ、元のデータ分布を保存する唯一の高品質なアプローチとして際立っている。
関連論文リスト
- MANTRA: a Framework for Multi-stage Adaptive Noise TReAtment During Training [3.619444603816032]
大規模リポジトリでは、ノイズやラベルの誤りによって、正確性と堅牢性の両方を低下させている。
本稿では,音の診断と緩和を微調整プロセスに直接組み込む多段階適応ノイズTReAtmentフレームワークMANTRAを提案する。
論文 参考訳(メタデータ) (2025-12-03T23:09:55Z) - Machine Unlearning for Robust DNNs: Attribution-Guided Partitioning and Neuron Pruning in Noisy Environments [5.8166742412657895]
ディープニューラルネットワーク(DNN)は、さまざまなドメインで顕著な成功を収めているが、ノイズやトレーニングデータによってそのパフォーマンスが著しく低下する可能性がある。
本稿では,帰属誘導型データパーティショニング,識別的ニューロンプルーニング,およびノイズのあるサンプルの影響を軽減するための微調整を目的とした新しいフレームワークを提案する。
CIFAR-10の標準リトレーニングよりも約10%の絶対精度向上を実現し,ラベルノイズを注入した。
論文 参考訳(メタデータ) (2025-06-13T09:37:11Z) - Handling Label Noise via Instance-Level Difficulty Modeling and Dynamic Optimization [40.87754131017707]
ディープニューラルネットワークは、ノイズの多い監視の下で一般化性能が低下する。
既存のメソッドでは、クリーンなサブセットの分離やノイズのあるラベルの修正に重点を置いている。
本稿では,インスタンスレベルの最適化が可能な新しい2段階雑音学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-01T19:12:58Z) - Impact of Noisy Supervision in Foundation Model Learning [91.56591923244943]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - Realistic Noise Synthesis with Diffusion Models [44.404059914652194]
ディープラーニングモデルには、大規模な実世界のトレーニングデータが必要です。
本稿では,これらの課題に対処するために拡散モデルを用いた新しい実音合成拡散器(RNSD)法を提案する。
論文 参考訳(メタデータ) (2023-05-23T12:56:01Z) - On-the-fly Denoising for Data Augmentation in Natural Language
Understanding [101.46848743193358]
よりクリーンなオリジナルデータに基づいて訓練された有機教師モデルによって提供されるソフトな拡張ラベルから学習する,データ拡張のためのオンザフライデノケーション手法を提案する。
本手法は,一般的な拡張手法に適用でき,テキスト分類と質問応答の両タスクの性能を一貫して向上させることができる。
論文 参考訳(メタデータ) (2022-12-20T18:58:33Z) - Improving Pre-trained Language Model Fine-tuning with Noise Stability
Regularization [94.4409074435894]
本稿では,LNSR(Layerwise Noise Stability Regularization)という,新規かつ効果的な微調整フレームワークを提案する。
具体的には、標準ガウス雑音を注入し、微調整モデルの隠れ表現を正規化することを提案する。
提案手法は,L2-SP,Mixout,SMARTなど他の最先端アルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-12T04:42:49Z) - Denoising Distantly Supervised Named Entity Recognition via a
Hypergeometric Probabilistic Model [26.76830553508229]
ハイパージオメトリ・ラーニング(HGL)は、遠距離教師付きエンティティ認識のための認知アルゴリズムである。
HGLはノイズ分布とインスタンスレベルの信頼性の両方を考慮に入れている。
実験により、HGLは遠方の監督から取得した弱いラベル付きデータを効果的に復調できることが示された。
論文 参考訳(メタデータ) (2021-06-17T04:01:25Z) - Bridging the Gap Between Clean Data Training and Real-World Inference
for Spoken Language Understanding [76.89426311082927]
既存のモデルはクリーンデータに基づいてトレーニングされ、クリーンデータトレーニングと現実世界の推論の間にtextitgapが発生する。
本稿では,良質なサンプルと低品質のサンプルの両方が類似ベクトル空間に埋め込まれた領域適応法を提案する。
広く使用されているデータセット、スニップス、および大規模な社内データセット(1000万のトレーニング例)に関する実験では、この方法は実世界の(騒々しい)コーパスのベースラインモデルを上回るだけでなく、堅牢性、すなわち、騒々しい環境下で高品質の結果を生み出すことを実証しています。
論文 参考訳(メタデータ) (2021-04-13T17:54:33Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z) - A Self-Refinement Strategy for Noise Reduction in Grammatical Error
Correction [54.569707226277735]
既存の文法的誤り訂正(GEC)のアプローチは、手動で作成したGECデータセットによる教師あり学習に依存している。
誤りが不適切に編集されたり、修正されなかったりする「ノイズ」は無視できないほどある。
本稿では,既存のモデルの予測整合性を利用して,これらのデータセットをデノマイズする自己補充手法を提案する。
論文 参考訳(メタデータ) (2020-10-07T04:45:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。