論文の概要: Informative Post-Hoc Explanations Only Exist for Simple Functions
- arxiv url: http://arxiv.org/abs/2508.11441v1
- Date: Fri, 15 Aug 2025 12:46:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-18 14:51:23.952094
- Title: Informative Post-Hoc Explanations Only Exist for Simple Functions
- Title(参考訳): 単純な関数にのみ存在するインフォームティブなポストホック説明
- Authors: Eric Günther, Balázs Szabados, Robi Bhattacharjee, Sebastian Bordt, Ulrike von Luxburg,
- Abstract要約: 本稿では、意思決定機能に関する情報を提供するための説明のための、一般的な学習理論に基づくフレームワークを紹介する。
複雑な決定関数に適用した場合,多くの一般的な説明アルゴリズムは有益ではないことを示す。
我々は、これらのアルゴリズムの実用性、特に監査、規制、AIのリスクの高い応用に強く影響していると論じている。
- 参考スコア(独自算出の注目度): 12.017822772474576
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many researchers have suggested that local post-hoc explanation algorithms can be used to gain insights into the behavior of complex machine learning models. However, theoretical guarantees about such algorithms only exist for simple decision functions, and it is unclear whether and under which assumptions similar results might exist for complex models. In this paper, we introduce a general, learning-theory-based framework for what it means for an explanation to provide information about a decision function. We call an explanation informative if it serves to reduce the complexity of the space of plausible decision functions. With this approach, we show that many popular explanation algorithms are not informative when applied to complex decision functions, providing a rigorous mathematical rejection of the idea that it should be possible to explain any model. We then derive conditions under which different explanation algorithms become informative. These are often stronger than what one might expect. For example, gradient explanations and counterfactual explanations are non-informative with respect to the space of differentiable functions, and SHAP and anchor explanations are not informative with respect to the space of decision trees. Based on these results, we discuss how explanation algorithms can be modified to become informative. While the proposed analysis of explanation algorithms is mathematical, we argue that it holds strong implications for the practical applicability of these algorithms, particularly for auditing, regulation, and high-risk applications of AI.
- Abstract(参考訳): 多くの研究者は、複雑な機械学習モデルの振る舞いに関する洞察を得るために、局所的なポストホックな説明アルゴリズムを使うことができることを示唆している。
しかし、そのようなアルゴリズムに関する理論的保証は単純な決定関数に対してのみ存在し、複雑なモデルに対して同様の仮定結果が存在するかどうかは不明である。
本稿では、意思決定関数に関する情報を提供するための説明のための、一般的な学習理論に基づくフレームワークを紹介する。
妥当な決定関数の空間の複雑さを減らすのに役立つと説明する。
このアプローチにより、複雑な決定関数に適用した場合、多くの一般的な説明アルゴリズムは、どんなモデルでも説明できるという考え方を厳密な数学的に拒絶することを示す。
次に、異なる説明アルゴリズムが情報となる条件を導出する。
これらはしばしば予想よりも強い。
例えば、勾配説明や反事実説明は微分可能関数の空間に関して非形式的であり、SHAPとアンカー説明は決定木の空間に関して情報的ではない。
これらの結果に基づいて、説明アルゴリズムを情報化するためにどのように修正するかについて議論する。
提案する説明アルゴリズムの解析は数学的であるが,特に監査,規制,リスクの高いAI応用において,これらのアルゴリズムの実践的適用性に強い意味があることを論じる。
関連論文リスト
- Coherent Local Explanations for Mathematical Optimization [0.0]
CLEMO(Coherent Local Explanations for Mathematical Optimization)を紹介する。
CLEMOは、最適化モデルの複数のコンポーネント、目的値と決定変数について、基礎となるモデル構造と整合性のある説明を提供する。
サンプリングに基づく手順では,正確な解法アルゴリズムの動作を説明することができる。
論文 参考訳(メタデータ) (2025-02-07T11:18:04Z) - Pyreal: A Framework for Interpretable ML Explanations [51.14710806705126]
Pyrealは、さまざまな解釈可能な機械学習説明を生成するシステムである。
Pyrealは、モデルによって期待される機能空間、関連する説明アルゴリズム、および人間のユーザ間でデータと説明を変換する。
我々の研究は、Pyrealが既存のシステムよりも有用な説明を生成することを示した。
論文 参考訳(メタデータ) (2023-12-20T15:04:52Z) - Disagreement amongst counterfactual explanations: How transparency can
be deceptive [0.0]
偽物の説明は、説明可能な人工知能技術としてますます使われている。
すべてのアルゴリズムが同じインスタンスに対して一様説明を生成するわけではない。
悪意のあるエージェントがこの多様性を使って不公平な機械学習モデルに見合うと、倫理的な問題が生じる。
論文 参考訳(メタデータ) (2023-04-25T09:15:37Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - Explainable Data-Driven Optimization: From Context to Decision and Back
Again [76.84947521482631]
データ駆動最適化では、コンテキスト情報と機械学習アルゴリズムを使用して、不確実なパラメータによる決定問題の解決策を見つける。
本稿では,データ駆動型問題に対する解法を説明するために,対実的説明手法を提案する。
在庫管理やルーティングといった運用管理における重要な問題を説明することで,我々のアプローチを実証する。
論文 参考訳(メタデータ) (2023-01-24T15:25:16Z) - Learning outside the Black-Box: The pursuit of interpretable models [78.32475359554395]
本稿では,任意の連続ブラックボックス関数の連続的大域的解釈を生成するアルゴリズムを提案する。
我々の解釈は、その芸術の以前の状態から飛躍的な進歩を表している。
論文 参考訳(メタデータ) (2020-11-17T12:39:44Z) - Efficient computation of contrastive explanations [8.132423340684568]
対照的な説明と反実的な説明の関係について検討する。
本稿では,多くの標準機械学習モデルの正値(有理)を効率的に計算する2相アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-06T11:50:28Z) - A framework for step-wise explaining how to solve constraint
satisfaction problems [21.96171133035504]
本研究では,人に対する理解が容易な方法で,伝播時に行うことができる推論ステップを説明することの課題について検討する。
そこで我々は, 制約解決者説明可能な機関を提供することを目標とし, 問題解決者への信頼構築に役立てる。
論文 参考訳(メタデータ) (2020-06-11T11:35:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。