論文の概要: Explaining Groups of Instances Counterfactually for XAI: A Use Case,
Algorithm and User Study for Group-Counterfactuals
- arxiv url: http://arxiv.org/abs/2303.09297v1
- Date: Thu, 16 Mar 2023 13:16:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-17 15:32:14.693046
- Title: Explaining Groups of Instances Counterfactually for XAI: A Use Case,
Algorithm and User Study for Group-Counterfactuals
- Title(参考訳): xaiのインスタンス群を逆さまに説明する--グループカウンタファクトのユースケース,アルゴリズム,ユーザスタディ
- Authors: Greta Warren, Mark T. Keane, Christophe Gueret, Eoin Delaney
- Abstract要約: 類似事例群を包括的に説明する新たなユースケースについて検討する。
集団のカウンターファクトは、複数の事象や事件を網羅する、一貫性のある幅広い説明を人間の好みに適合させる。
結果から,AIシステムに対する理解は軽微だが,明確な改善が見られた。
- 参考スコア(独自算出の注目度): 7.22614468437919
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Counterfactual explanations are an increasingly popular form of post hoc
explanation due to their (i) applicability across problem domains, (ii)
proposed legal compliance (e.g., with GDPR), and (iii) reliance on the
contrastive nature of human explanation. Although counterfactual explanations
are normally used to explain individual predictive-instances, we explore a
novel use case in which groups of similar instances are explained in a
collective fashion using ``group counterfactuals'' (e.g., to highlight a
repeating pattern of illness in a group of patients). These group
counterfactuals meet a human preference for coherent, broad explanations
covering multiple events/instances. A novel, group-counterfactual algorithm is
proposed to generate high-coverage explanations that are faithful to the
to-be-explained model. This explanation strategy is also evaluated in a large,
controlled user study (N=207), using objective (i.e., accuracy) and subjective
(i.e., confidence, explanation satisfaction, and trust) psychological measures.
The results show that group counterfactuals elicit modest but definite
improvements in people's understanding of an AI system. The implications of
these findings for counterfactual methods and for XAI are discussed.
- Abstract(参考訳): カウンターファクチュアルな説明はポストホックな説明として人気が高まっている。
(i)問題領域における適用性
(ii)法律上の遵守(例えば、gdpr)、及び
(iii)人間の説明の対比的性質に依存すること。
通常、反事実説明は個々の予測インスタンスを説明するために用いられるが、類似したインスタンスのグループを「グループ反事実」を用いて集団的に説明する(例、患者集団における病気の繰り返しパターンを強調する)新しいユースケースを探索する。
これらの集団の反事実は、複数の出来事や状況をカバーする、一貫性のある広範な説明に対する人間の好みを満たす。
to-be-explainedモデルに忠実なハイカバレッジな説明を生成するために,新しいグループカウントファクトアルゴリズムを提案する。
この説明戦略は、客観的(精度)と主観的(信頼、説明満足度、信頼)の心理的尺度を用いて、大きく制御されたユーザスタディ(N=207)で評価される。
その結果,AIシステムに対する理解は,集団の反事実は控えめだが,明確な改善が見られた。
これらの知見は, 対実的手法とXAIに対する意味を論じる。
関連論文リスト
- "Explain it in the Same Way!" -- Model-Agnostic Group Fairness of
Counterfactual Explanations [8.132423340684568]
システムの結果を望ましい方法で変更するために、相手に何をすべきかを教えます。
本稿では,保護群間の複雑性に大きく違いのない,反現実的説明をモデル化するためのモデルに依存しない手法を提案する。
論文 参考訳(メタデータ) (2022-11-27T15:24:06Z) - Neural Causal Models for Counterfactual Identification and Estimation [62.30444687707919]
本稿では,ニューラルモデルによる反事実文の評価について検討する。
まず、神経因果モデル(NCM)が十分に表現可能であることを示す。
第2に,反事実分布の同時同定と推定を行うアルゴリズムを開発する。
論文 参考訳(メタデータ) (2022-09-30T18:29:09Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Features of Explainability: How users understand counterfactual and
causal explanations for categorical and continuous features in XAI [10.151828072611428]
対物的説明は、AI決定の解釈可能性、レコメンデーション、バイアスに対処するためにますます使われています。
本研究では,ユーザ予測の客観的精度に対する反事実的・因果的説明の効果を検証した。
また, 利用者は, カテゴリー的特徴を参照する説明を, 連続的特徴を参照する説明よりも容易に理解できることがわかった。
論文 参考訳(メタデータ) (2022-04-21T15:01:09Z) - Nested Counterfactual Identification from Arbitrary Surrogate
Experiments [95.48089725859298]
観測と実験の任意の組み合わせからネスト反事実の同定について検討した。
具体的には、任意のネストされた反事実を非ネストされたものへ写像できる反ファクト的非ネスト定理(英語版)(CUT)を証明する。
論文 参考訳(メタデータ) (2021-07-07T12:51:04Z) - On the Objective Evaluation of Post Hoc Explainers [10.981508361941335]
機械学習研究の最近の傾向は、それらがブラックボックスであると考えられる程度に、ますます複雑化しているアルゴリズムにつながっている。
意思決定の不透明度を低減するため、そのようなモデルの内部動作を人間に理解可能な方法で解釈する手法が提案されている。
本稿では,モデルの加法構造から直接導出される地底真理に基づくポストホック説明器の評価のための枠組みを提案する。
論文 参考訳(メタデータ) (2021-06-15T19:06:51Z) - Prompting Contrastive Explanations for Commonsense Reasoning Tasks [74.7346558082693]
大規模事前学習言語モデル(PLM)は、常識推論タスクにおいて、ほぼ人間に近い性能を達成することができる。
人間の解釈可能な証拠を生成するために、同じモデルを使う方法を示す。
論文 参考訳(メタデータ) (2021-06-12T17:06:13Z) - Challenging common interpretability assumptions in feature attribution
explanations [0.0]
大規模な人・物体実験により,3つの共通解釈可能性仮定の妥当性を実証的に評価した。
特徴帰属の説明は、人間の意思決定者にとって、我々のタスクに限界効用をもたらす。
論文 参考訳(メタデータ) (2020-12-04T17:57:26Z) - On Generating Plausible Counterfactual and Semi-Factual Explanations for
Deep Learning [15.965337956587373]
PlausIble Exceptionality-based Contrastive Explanations (PIECE) は、テストイメージにおけるすべての例外的特徴を、対実クラスの観点から正規化するように修正する。
2つの制御された実験は、PIECEを文献上の他のものと比較し、PIECEはいくつかの尺度において最も妥当な反事実を生成するだけでなく、最良の半事実も生成することを示した。
論文 参考訳(メタデータ) (2020-09-10T14:48:12Z) - Evaluations and Methods for Explanation through Robustness Analysis [117.7235152610957]
分析による特徴に基づく説明の新たな評価基準を確立する。
我々は、緩やかに必要であり、予測に十分である新しい説明を得る。
我々は、現在の予測をターゲットクラスに移動させる一連の特徴を抽出するために、説明を拡張します。
論文 参考訳(メタデータ) (2020-05-31T05:52:05Z) - SCOUT: Self-aware Discriminant Counterfactual Explanations [78.79534272979305]
対物的視覚的説明の問題点を考察する。
新しい差別的な説明の族が紹介される。
結果として生じる反実的な説明は、最適化が自由で、従って以前の方法よりもはるかに高速である。
論文 参考訳(メタデータ) (2020-04-16T17:05:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。