論文の概要: The Impact of Machine Learning Uncertainty on the Robustness of Counterfactual Explanations
- arxiv url: http://arxiv.org/abs/2602.00063v1
- Date: Tue, 20 Jan 2026 09:45:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 02:03:42.299654
- Title: The Impact of Machine Learning Uncertainty on the Robustness of Counterfactual Explanations
- Title(参考訳): 機械学習の不確かさが対実的説明のロバスト性に及ぼす影響
- Authors: Leonidas Christodoulou, Chang Sun,
- Abstract要約: モデルの不確実性に対して, 反事実的説明が極めて敏感であることを示す。
モデル精度が小さくても、生成したカウンターファクトのバリエーションが大きくなる可能性がある。
これらの知見は、金融や社会科学といった分野における不確実性を考慮した説明手法の必要性を浮き彫りにしている。
- 参考スコア(独自算出の注目度): 3.9292613467235262
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Counterfactual explanations are widely used to interpret machine learning predictions by identifying minimal changes to input features that would alter a model's decision. However, most existing counterfactual methods have not been tested when model and data uncertainty change, resulting in explanations that may be unstable or invalid under real-world variability. In this work, we investigate the robustness of common combinations of machine learning models and counterfactual generation algorithms in the presence of both aleatoric and epistemic uncertainty. Through experiments on synthetic and real-world tabular datasets, we show that counterfactual explanations are highly sensitive to model uncertainty. In particular, we find that even small reductions in model accuracy - caused by increased noise or limited data - can lead to large variations in the generated counterfactuals on average and on individual instances. These findings underscore the need for uncertainty-aware explanation methods in domains such as finance and the social sciences.
- Abstract(参考訳): モデルの決定を変える可能性のある入力機能に対する最小限の変更を識別することで、機械学習の予測を解釈するために、カウンターファクトな説明が広く使用されている。
しかし、既存のカウンターファクト法のほとんどは、モデルやデータの不確実性が変化したときにはテストされていないため、現実の変動性の下で不安定あるいは無効な説明が得られている。
本研究では,機械学習モデルと逆ファクト生成アルゴリズムの共通組み合わせが,失語症とてんかんの両不確実性が存在する場合のロバスト性について検討する。
合成および実世界の表型データセットの実験を通して、反事実的説明がモデルの不確実性に非常に敏感であることを示す。
特に、ノイズの増加や限られたデータによるモデル精度の低下が、平均および個々のインスタンスで生成された偽物に大きなばらつきをもたらすことが判明した。
これらの知見は、金融や社会科学といった分野における不確実性を考慮した説明手法の必要性を浮き彫りにしている。
関連論文リスト
- Investigating the Impact of Model Instability on Explanations and Uncertainty [43.254616360807496]
テキスト入力における不確かさを推測時に雑音を導入することでシミュレートする。
高い不確実性は必ずしも説明可能性の低さを暗示しない。
このことは、ノイズ増強モデルが不確実性のあるトークンを特定するのに優れていることを示唆している。
論文 参考訳(メタデータ) (2024-02-20T13:41:21Z) - Identifying Drivers of Predictive Aleatoric Uncertainty [2.5311562666866494]
本稿では,予測的アレタリック不確実性を説明するための簡単なアプローチを提案する。
ガウス出力分布にニューラルネットワークを適用することにより,回帰の不確かさを予測分散として推定する。
このアプローチは、複雑な公表されたアプローチよりも確実に不確実性の影響を説明することができる。
論文 参考訳(メタデータ) (2023-12-12T13:28:53Z) - Deep Active Learning with Noise Stability [24.54974925491753]
ラベルのないデータの不確実性推定は、アクティブな学習に不可欠である。
本稿では,雑音の安定性を利用して不確実性を推定する新しいアルゴリズムを提案する。
本手法はコンピュータビジョン,自然言語処理,構造データ解析など,様々なタスクに適用可能である。
論文 参考訳(メタデータ) (2022-05-26T13:21:01Z) - Equivariance Allows Handling Multiple Nuisance Variables When Analyzing
Pooled Neuroimaging Datasets [53.34152466646884]
本稿では,構造空間上でインスタンス化された同変表現学習における最近の結果と,因果推論における古典的結果の簡易な利用が,いかに効果的に実現されたかを示す。
いくつかの仮定の下で、我々のモデルが複数のニュアンス変数を扱えることを実証し、そうでなければサンプルの大部分を取り除く必要のあるシナリオにおいて、プールされた科学データセットの分析を可能にする。
論文 参考訳(メタデータ) (2022-03-29T04:54:06Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Deducing neighborhoods of classes from a fitted model [68.8204255655161]
本稿では,新しいタイプの解釈可能な機械学習手法を提案する。
量子シフトを用いた分類モデルでは、特徴空間の予測クラスへの分割を理解するのに役立ちます。
基本的に、実際のデータポイント(または特定の関心点)を使用し、特定の特徴をわずかに引き上げたり減少させたりした後の予測の変化を観察する。
論文 参考訳(メタデータ) (2020-09-11T16:35:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。