論文の概要: Informative Semi-Factuals for XAI: The Elaborated Explanations that People Prefer
- arxiv url: http://arxiv.org/abs/2603.17534v1
- Date: Wed, 18 Mar 2026 09:42:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-19 18:32:57.613782
- Title: Informative Semi-Factuals for XAI: The Elaborated Explanations that People Prefer
- Title(参考訳): XAIのためのインフォームティブな半事実:人々が好む実験的説明
- Authors: Saugat Aryal, Mark T. Keane,
- Abstract要約: 最近、eXplainable AI (XAI)では、$textiteven if$説明 -- いわゆる半事実 — が一般的な戦略として現れている。
本研究では、より精巧な説明を生成する新しいアルゴリズム、$textitinformative semi-factuals$ (ISF) を推し進める。
- 参考スコア(独自算出の注目度): 10.989756738922212
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, in eXplainable AI (XAI), $\textit{even if}$ explanations -- so-called semi-factuals -- have emerged as a popular strategy that explains how a predicted outcome $\textit{can remain the same}$ even when certain input-features are altered. For example, in the commonly-used banking app scenario, a semi-factual explanation could inform customers about better options, other alternatives for their successful application, by saying "$\textit{Even if}$ you asked for double the loan amount, you would still be accepted". Most semi-factuals XAI algorithms focus on finding maximal value-changes to a single key-feature that do $\textit{not}$ alter the outcome (unlike counterfactual explanations that often find minimal value-changes to several features that alter the outcome). However, no current semi-factual method explains $\textit{why}$ these extreme value-changes do not alter outcomes; for example, a more informative semi-factual could tell the customer that it is their good credit score that allows them to borrow double their requested loan. In this work, we advance a new algorithm -- the $\textit{informative semi-factuals}$ (ISF) method -- that generates more elaborated explanations supplementing semi-factuals with information about additional $\textit{hidden features}$ that influence an automated decision. Experimental results on benchmark datasets show that this ISF method computes semi-factuals that are both informative and of high-quality on key metrics. Furthermore, a user study shows that people prefer these elaborated explanations over the simpler semi-factual explanations generated by current methods.
- Abstract(参考訳): 最近、eXplainable AI (XAI)において、$\textit{even if}$説明 -- いわゆる半実物 — は、ある入力機能を変更する場合でも、予測結果が$\textit{canが同じであることを示す一般的な戦略として登場した。
例えば、一般的に使用されるバンキングアプリのシナリオでは、"$\textit{Even if}$$$double the loan amount, you would be accept"というように、半現実的な説明が顧客に対して、より優れた選択肢や他のアプリケーション代替案について通知する可能性がある。
ほとんどの半実数XAIアルゴリズムは、$\textit{not}$で結果を変更する単一のキー機能への最大値変化を見つけることに重点を置いている。
しかし、現在の半事実的手法では、$\textit{why}$これらの極端な値変更は結果を変えない。
本研究では,新たなアルゴリズムである$\textit{informative semi-factuals}$ (ISF) を推し進める。
ベンチマークデータセットによる実験結果から,このICF法は,重要な指標に対する情報的かつ高品質な半実数を計算する。
さらに,本研究では,従来の手法が生み出す単純な半実説明よりも,これらの精巧な説明の方が好まれていることが示唆された。
関連論文リスト
- Mind the Gap: A Causal Perspective on Bias Amplification in Prediction & Decision-Making [58.06306331390586]
本稿では,閾値演算による予測値がS$変化の程度を測るマージン補数の概念を導入する。
適切な因果仮定の下では、予測スコア$S$に対する$X$の影響は、真の結果$Y$に対する$X$の影響に等しいことを示す。
論文 参考訳(メタデータ) (2024-05-24T11:22:19Z) - Even-Ifs From If-Onlys: Are the Best Semi-Factual Explanations Found Using Counterfactuals As Guides? [5.00685398138999]
いくつかの半実生産法は、半実生産を誘導するために反実物を用いる。
5つの主要な指標を用いて、7つのデータセットに対して8つの半実例メソッドの包括的なテストを行う。
これらのテストの結果は、決定領域の他の側面の計算は、より優れた半現実的XAIをもたらすことを示唆している。
論文 参考訳(メタデータ) (2024-03-01T21:04:48Z) - The Utility of "Even if..." Semifactual Explanation to Optimise Positive
Outcomes [6.801754043459317]
我々はtextitGain の概念を導入し(つまり、ユーザーがその説明からどれだけ利益を得るか)、半実物の因果的形式化を最初に検討する。
テストは、我々のアルゴリズムが以前の作業と比べて利益を最大化するのに優れており、そのプロセスにおいて因果関係が重要であることを示している。
論文 参考訳(メタデータ) (2023-10-29T08:52:23Z) - Even if Explanations: Prior Work, Desiderata & Benchmarks for
Semi-Factual XAI [7.881140597011731]
反事実的、半事実的なサブタイプは、AIではあまり注目されていない。
本稿では,この地域の歴史的・最近のブレークスルーを要約する文献を調査する。
半実のXAIのための重要なデシラタを定義し、過去のアルゴリズムのベンチマークテストを報告している。
論文 参考訳(メタデータ) (2023-01-27T19:58:12Z) - Fair Wrapping for Black-box Predictions [105.10203274098862]
予測を修飾するα木として定義したラッパー関数を学習する。
この修正は, アルファツリーの構成, 一般化, 解釈可能性, および修正された予測とオリジナル予測のKLの相違に関して, 魅力的な性質を有することを示す。
論文 参考訳(メタデータ) (2022-01-31T01:02:39Z) - Search Methods for Sufficient, Socially-Aligned Feature Importance
Explanations with In-Distribution Counterfactuals [72.00815192668193]
特徴重要度(FI)推定は一般的な説明形式であり、テスト時に特定の入力特徴を除去することによって生じるモデル信頼度の変化を計算し、評価することが一般的である。
FIに基づく説明の未探索次元についていくつかの考察を行い、この説明形式に対する概念的および実証的な改善を提供する。
論文 参考訳(メタデータ) (2021-06-01T20:36:48Z) - Evaluating Explainable AI: Which Algorithmic Explanations Help Users
Predict Model Behavior? [97.77183117452235]
我々は、モデル解釈性に対するアルゴリズム的説明の影響を分離するために、人体テストを実施している。
方法の有効性の明確な証拠はごく少数にみえる。
以上の結果から,説明がシミュラビリティにどのように影響するかの信頼性と包括的評価が得られた。
論文 参考訳(メタデータ) (2020-05-04T20:35:17Z) - The Information Bottleneck Problem and Its Applications in Machine
Learning [53.57797720793437]
近年,機械学習システムの推論能力が急上昇し,社会の様々な側面において重要な役割を担っている。
情報ボトルネック(IB)理論は、ディープラーニング(DL)システムを分析するための大胆な情報理論パラダイムとして登場した。
本チュートリアルでは,この抽象原理の情報理論的起源と最近のDLへの影響について考察する。
論文 参考訳(メタデータ) (2020-04-30T16:48:51Z) - An Information-Theoretic Approach to Personalized Explainable Machine
Learning [92.53970625312665]
本稿では,予測とユーザ知識のための簡易確率モデルを提案する。
説明と予測の間の条件付き相互情報による説明の効果を定量化する。
論文 参考訳(メタデータ) (2020-03-01T13:06:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。