論文の概要: Explaining Groups of Instances Counterfactually for XAI: A Use Case,
Algorithm and User Study for Group-Counterfactuals
- arxiv url: http://arxiv.org/abs/2303.09297v1
- Date: Thu, 16 Mar 2023 13:16:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-17 15:32:14.693046
- Title: Explaining Groups of Instances Counterfactually for XAI: A Use Case,
Algorithm and User Study for Group-Counterfactuals
- Title(参考訳): xaiのインスタンス群を逆さまに説明する--グループカウンタファクトのユースケース,アルゴリズム,ユーザスタディ
- Authors: Greta Warren, Mark T. Keane, Christophe Gueret, Eoin Delaney
- Abstract要約: 類似事例群を包括的に説明する新たなユースケースについて検討する。
集団のカウンターファクトは、複数の事象や事件を網羅する、一貫性のある幅広い説明を人間の好みに適合させる。
結果から,AIシステムに対する理解は軽微だが,明確な改善が見られた。
- 参考スコア(独自算出の注目度): 7.22614468437919
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Counterfactual explanations are an increasingly popular form of post hoc
explanation due to their (i) applicability across problem domains, (ii)
proposed legal compliance (e.g., with GDPR), and (iii) reliance on the
contrastive nature of human explanation. Although counterfactual explanations
are normally used to explain individual predictive-instances, we explore a
novel use case in which groups of similar instances are explained in a
collective fashion using ``group counterfactuals'' (e.g., to highlight a
repeating pattern of illness in a group of patients). These group
counterfactuals meet a human preference for coherent, broad explanations
covering multiple events/instances. A novel, group-counterfactual algorithm is
proposed to generate high-coverage explanations that are faithful to the
to-be-explained model. This explanation strategy is also evaluated in a large,
controlled user study (N=207), using objective (i.e., accuracy) and subjective
(i.e., confidence, explanation satisfaction, and trust) psychological measures.
The results show that group counterfactuals elicit modest but definite
improvements in people's understanding of an AI system. The implications of
these findings for counterfactual methods and for XAI are discussed.
- Abstract(参考訳): カウンターファクチュアルな説明はポストホックな説明として人気が高まっている。
(i)問題領域における適用性
(ii)法律上の遵守(例えば、gdpr)、及び
(iii)人間の説明の対比的性質に依存すること。
通常、反事実説明は個々の予測インスタンスを説明するために用いられるが、類似したインスタンスのグループを「グループ反事実」を用いて集団的に説明する(例、患者集団における病気の繰り返しパターンを強調する)新しいユースケースを探索する。
これらの集団の反事実は、複数の出来事や状況をカバーする、一貫性のある広範な説明に対する人間の好みを満たす。
to-be-explainedモデルに忠実なハイカバレッジな説明を生成するために,新しいグループカウントファクトアルゴリズムを提案する。
この説明戦略は、客観的(精度)と主観的(信頼、説明満足度、信頼)の心理的尺度を用いて、大きく制御されたユーザスタディ(N=207)で評価される。
その結果,AIシステムに対する理解は,集団の反事実は控えめだが,明確な改善が見られた。
これらの知見は, 対実的手法とXAIに対する意味を論じる。
関連論文リスト
- XForecast: Evaluating Natural Language Explanations for Time Series Forecasting [72.57427992446698]
時系列予測は、特に正確な予測に依存するステークホルダーにとって、意思決定を支援する。
伝統的に説明可能なAI(XAI)メソッドは、機能や時間的重要性を基盤とするものであり、専門家の知識を必要とすることが多い。
時系列データにおける複雑な因果関係のため,予測NLEの評価は困難である。
論文 参考訳(メタデータ) (2024-10-18T05:16:39Z) - CohEx: A Generalized Framework for Cohort Explanation [5.269665407562217]
コホートの説明は、特定のグループや事例のコホートにおける説明者の振る舞いに関する洞察を与える。
本稿では,コホートの説明を測る上でのユニークな課題と機会について論じる。
論文 参考訳(メタデータ) (2024-10-17T03:36:18Z) - Towards Non-Adversarial Algorithmic Recourse [20.819764720587646]
反実的な説明とは対照的に、敵対的な例は、それらが根底的な真実よりも誤分類につながるという独特の特徴を持っていると論じられている。
本稿では,非対人的アルゴリズムの議論を紹介するとともに,高い状況下では,対人的特徴を示さない対実的説明を得ることが不可欠である理由を概説する。
論文 参考訳(メタデータ) (2024-03-15T14:18:21Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Counterfactuals of Counterfactuals: a back-translation-inspired approach
to analyse counterfactual editors [3.4253416336476246]
我々は、反事実的、対照的な説明の分析に焦点をあてる。
本稿では,新しい逆翻訳に基づく評価手法を提案する。
本研究では, 予測モデルと説明モデルの両方の振る舞いについて, 反事実を反復的に説明者に与えることで, 価値ある洞察を得ることができることを示す。
論文 参考訳(メタデータ) (2023-05-26T16:04:28Z) - "Explain it in the Same Way!" -- Model-Agnostic Group Fairness of
Counterfactual Explanations [8.132423340684568]
システムの結果を望ましい方法で変更するために、相手に何をすべきかを教えます。
本稿では,保護群間の複雑性に大きく違いのない,反現実的説明をモデル化するためのモデルに依存しない手法を提案する。
論文 参考訳(メタデータ) (2022-11-27T15:24:06Z) - Neural Causal Models for Counterfactual Identification and Estimation [62.30444687707919]
本稿では,ニューラルモデルによる反事実文の評価について検討する。
まず、神経因果モデル(NCM)が十分に表現可能であることを示す。
第2に,反事実分布の同時同定と推定を行うアルゴリズムを開発する。
論文 参考訳(メタデータ) (2022-09-30T18:29:09Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Nested Counterfactual Identification from Arbitrary Surrogate
Experiments [95.48089725859298]
観測と実験の任意の組み合わせからネスト反事実の同定について検討した。
具体的には、任意のネストされた反事実を非ネストされたものへ写像できる反ファクト的非ネスト定理(英語版)(CUT)を証明する。
論文 参考訳(メタデータ) (2021-07-07T12:51:04Z) - On the Objective Evaluation of Post Hoc Explainers [10.981508361941335]
機械学習研究の最近の傾向は、それらがブラックボックスであると考えられる程度に、ますます複雑化しているアルゴリズムにつながっている。
意思決定の不透明度を低減するため、そのようなモデルの内部動作を人間に理解可能な方法で解釈する手法が提案されている。
本稿では,モデルの加法構造から直接導出される地底真理に基づくポストホック説明器の評価のための枠組みを提案する。
論文 参考訳(メタデータ) (2021-06-15T19:06:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。