論文の概要: The effect of whitening on explanation performance
- arxiv url: http://arxiv.org/abs/2602.09278v1
- Date: Mon, 09 Feb 2026 23:41:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.284316
- Title: The effect of whitening on explanation performance
- Title(参考訳): ホワイトニングが説明性能に及ぼす影響
- Authors: Benedict Clark, Stoyan Karastoyanov, Rick Wilming, Stefan Haufe,
- Abstract要約: 本研究では、デコレーションのための一般的な前処理技術であるデータホワイトニングが、そのような誤りを軽減できるかどうかを検討する。
5個の異なるホワイトニング変換と組み合わせて16種類の特徴属性法を実験的に評価した。
以上の結果から,特定の白化技術では説明性能が向上するが,XAI法やモデルアーキテクチャでは改善の程度が大きく異なることが示唆された。
- 参考スコア(独自算出の注目度): 3.1727713954020937
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable Artificial Intelligence (XAI) aims to provide transparent insights into machine learning models, yet the reliability of many feature attribution methods remains a critical challenge. Prior research (Haufe et al., 2014; Wilming et al., 2022, 2023) has demonstrated that these methods often erroneously assign significant importance to non-informative variables, such as suppressor variables, leading to fundamental misinterpretations. Since statistical suppression is induced by feature dependencies, this study investigates whether data whitening, a common preprocessing technique for decorrelation, can mitigate such errors. Using the established XAI-TRIS benchmark (Clark et al., 2024b), which offers synthetic ground-truth data and quantitative measures of explanation correctness, we empirically evaluate 16 popular feature attribution methods applied in combination with 5 distinct whitening transforms. Additionally, we analyze a minimal linear two-dimensional classification problem (Wilming et al., 2023) to theoretically assess whether whitening can remove the impact of suppressor features from Bayes-optimal models. Our results indicate that, while specific whitening techniques can improve explanation performance, the degree of improvement varies substantially across XAI methods and model architectures. These findings highlight the complex relationship between data non-linearities, preprocessing quality, and attribution fidelity, underscoring the vital role of pre-processing techniques in enhancing model interpretability.
- Abstract(参考訳): 説明可能な人工知能(XAI)は、機械学習モデルに透過的な洞察を提供することを目的としている。
先行研究 (Haufe et al , 2014; Wilming et al , 2022, 2023) は、これらの手法がしばしば、抑圧変数のような非形式変数に重要な重要性を誤って割り当て、根本的な誤解をもたらすことを示した。
統計的抑圧は特徴依存によって引き起こされるため、デコリレーションのための一般的な前処理技術であるデータ白化がそのような誤りを軽減できるかどうかを調査する。
XAI-TRIS ベンチマーク (Clark et al , 2024b) を用いて, 5つの異なるホワイトニング変換と組み合わせた16種類の特徴属性法を実験的に評価した。
さらに、最小線形2次元分類問題(Wilming et al , 2023)を分析し、ホワイトニングがベイズ最適モデルから抑制特性の影響を除去できるかどうかを理論的に評価する。
以上の結果から,特定の白化技術では説明性能が向上するが,XAI法やモデルアーキテクチャでは改善の程度が大きく異なることが示唆された。
これらの知見は,データ非直線性,前処理品質,帰属性との間の複雑な関係を浮き彫りにし,モデル解釈性向上における前処理技術の重要性を浮き彫りにした。
関連論文リスト
- Robustness of Probabilistic Models to Low-Quality Data: A Multi-Perspective Analysis [23.834741751854448]
低品質データの効果に関する体系的な比較研究は、現代の確率モデルにまたがる頑健性のスペクトルを明らかにしている。
トークン予測からシーケンス・ツー・シーケンス・タスクに至るまで,自動回帰言語モデルは極めてレジリエンスであることがわかった。
同じレベルのデータ破損の下で、クラス条件拡散モデルは破滅的に劣化する。
論文 参考訳(メタデータ) (2025-12-11T02:10:41Z) - Efficient Machine Unlearning via Influence Approximation [75.31015485113993]
インフルエンサーベースのアンラーニングは、個別のトレーニングサンプルがモデルパラメータに与える影響を再トレーニングせずに推定する顕著なアプローチとして現れてきた。
本稿では,暗記(増分学習)と忘れ(未学習)の理論的関連性を確立する。
本稿では、インフルエンス近似アンラーニングアルゴリズムを導入し、インクリメンタルな視点から効率的なマシンアンラーニングを行う。
論文 参考訳(メタデータ) (2025-07-31T05:34:27Z) - REX: Causal discovery based on machine learning and explainability techniques [0.34757790689654594]
本稿では、機械学習(ML)モデルと説明可能性技術を活用する因果発見手法であるReXを紹介する。
ReXは、さまざまなデータ生成プロセスで最先端の因果発見手法より優れています。
論文 参考訳(メタデータ) (2025-01-22T08:23:10Z) - Explainability of Machine Learning Models under Missing Data [3.0485328005356136]
データ不足は、モデルのパフォーマンスと説明容易性を著しく損なうおそれのある問題である。
本稿では、欠落データ分野の発展を要約し、SHAPに対する様々な計算方法の効果について考察する。
論文 参考訳(メタデータ) (2024-06-29T11:31:09Z) - Theoretical Behavior of XAI Methods in the Presence of Suppressor
Variables [0.8602553195689513]
近年,「説明可能な人工知能(XAI)」のコミュニティは,モデル「複雑性」と「解釈可能性」のギャップを埋めるための膨大な手法を生み出している。
本研究のアプローチの大部分は, 相関雑音の存在下での非クラス関連抑制機能に非ゼロの重要性が寄与すると考えられる。
論文 参考訳(メタデータ) (2023-06-02T11:41:19Z) - Benchmarking Heterogeneous Treatment Effect Models through the Lens of
Interpretability [82.29775890542967]
治療のパーソナライズされた効果を見積もるのは複雑だが、普及している問題である。
ヘテロジニアス処理効果推定に関する機械学習文献の最近の進歩は、洗練されたが不透明なツールの多くを生み出した。
我々は、ポストホックな特徴重要度法を用いて、モデルの予測に影響を及ぼす特徴を特定する。
論文 参考訳(メタデータ) (2022-06-16T17:59:05Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - Estimation of Bivariate Structural Causal Models by Variational Gaussian
Process Regression Under Likelihoods Parametrised by Normalising Flows [74.85071867225533]
因果機構は構造因果モデルによって記述できる。
最先端の人工知能の大きな欠点の1つは、説明責任の欠如である。
論文 参考訳(メタデータ) (2021-09-06T14:52:58Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。