論文の概要: Explaining Black-Box Algorithms Using Probabilistic Contrastive
Counterfactuals
- arxiv url: http://arxiv.org/abs/2103.11972v1
- Date: Mon, 22 Mar 2021 16:20:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-23 19:50:20.405961
- Title: Explaining Black-Box Algorithms Using Probabilistic Contrastive
Counterfactuals
- Title(参考訳): 確率論的コントラスト法を用いたブラックボックスアルゴリズムの解説
- Authors: Sainyam Galhotra, Romila Pradhan, Babak Salimi
- Abstract要約: ブラックボックス決定システムを説明するための因果性に基づく原則的アプローチを提案する。
本稿では,変数の直接的および間接的影響が,アルゴリズムによる決定に与える影響を定量的に示す。
このような反事実は,アルゴリズムの決定に負の影響を受ける個人に対して,どのように行動可能なリコースを提供できるかを示す。
- 参考スコア(独自算出の注目度): 7.727206277914709
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There has been a recent resurgence of interest in explainable artificial
intelligence (XAI) that aims to reduce the opaqueness of AI-based
decision-making systems, allowing humans to scrutinize and trust them. Prior
work in this context has focused on the attribution of responsibility for an
algorithm's decisions to its inputs wherein responsibility is typically
approached as a purely associational concept. In this paper, we propose a
principled causality-based approach for explaining black-box decision-making
systems that addresses limitations of existing methods in XAI. At the core of
our framework lies probabilistic contrastive counterfactuals, a concept that
can be traced back to philosophical, cognitive, and social foundations of
theories on how humans generate and select explanations. We show how such
counterfactuals can quantify the direct and indirect influences of a variable
on decisions made by an algorithm, and provide actionable recourse for
individuals negatively affected by the algorithm's decision. Unlike prior work,
our system, LEWIS: (1)can compute provably effective explanations and recourse
at local, global and contextual levels (2)is designed to work with users with
varying levels of background knowledge of the underlying causal model and
(3)makes no assumptions about the internals of an algorithmic system except for
the availability of its input-output data. We empirically evaluate LEWIS on
three real-world datasets and show that it generates human-understandable
explanations that improve upon state-of-the-art approaches in XAI, including
the popular LIME and SHAP. Experiments on synthetic data further demonstrate
the correctness of LEWIS's explanations and the scalability of its recourse
algorithm.
- Abstract(参考訳): 近年、AIベースの意思決定システムの不透明さを減らすことを目的とした、説明可能な人工知能(XAI)への関心が復活している。
この文脈での先行研究は、アルゴリズムの決定に対する責任の帰属に焦点をあてており、そこでは通常、責任は純粋に関連づけられた概念として扱われる。
本稿では,xaiにおける既存手法の限界に対処するブラックボックス意思決定システムを説明するための原則付き因果関係に基づくアプローチを提案する。
私たちのフレームワークの核心は、確率論的対照的な反事実論であり、人間がどのように説明を生成し、選択するかに関する理論の哲学的、認知的、社会的基盤に遡ることができる。
本稿では,アルゴリズムによる決定に対する変数の直接的・間接的影響の定量化と,アルゴリズムの判断に負の影響を受ける個人に対して行動可能な会話を提供する。
従来のシステムとは違って,(1)局所的,グローバル的,文脈的なレベルで,有効な説明と会話を計算可能であり,(2)基礎となる因果関係モデルの背景知識の異なるユーザと協調し,(3)入力出力データ以外のアルゴリズムシステムの内部について仮定することができないように設計されている。
実世界の3つのデータセット上でLEWISを実証的に評価し、LIMEやSHAPなど、XAIの最先端のアプローチを改善する人間の理解可能な説明を生成することを示す。
合成データに関する実験は、LEWISの説明の正しさとリコースアルゴリズムのスケーラビリティをさらに証明している。
関連論文リスト
- Towards Symbolic XAI -- Explanation Through Human Understandable Logical Relationships Between Features [19.15360328688008]
本稿では,入力特徴間の論理的関係を表すシンボリッククエリに関連性を持つ,シンボリックXAIというフレームワークを提案する。
このフレームワークは、ユーザーによるカスタマイズと人間可読性の両方に柔軟性のある、モデルの意思決定プロセスを理解する。
論文 参考訳(メタデータ) (2024-08-30T10:52:18Z) - Explaining by Imitating: Understanding Decisions by Interpretable Policy
Learning [72.80902932543474]
観察されたデータから人間の行動を理解することは、意思決定における透明性と説明責任にとって重要である。
意思決定者の方針をモデル化することが困難である医療などの現実的な設定を考えてみましょう。
本稿では, 設計による透明性の向上, 部分観測可能性の確保, 完全にオフラインで動作可能なデータ駆動型意思決定行動の表現を提案する。
論文 参考訳(メタデータ) (2023-10-28T13:06:14Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Neural Causal Models for Counterfactual Identification and Estimation [62.30444687707919]
本稿では,ニューラルモデルによる反事実文の評価について検討する。
まず、神経因果モデル(NCM)が十分に表現可能であることを示す。
第2に,反事実分布の同時同定と推定を行うアルゴリズムを開発する。
論文 参考訳(メタデータ) (2022-09-30T18:29:09Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - From Cognitive to Computational Modeling: Text-based Risky
Decision-Making Guided by Fuzzy Trace Theory [5.154015755506085]
ファジィトレース理論(FTT)は、ジストを組み込むことで人間の意思決定を説明する強力なパラダイムである。
本稿では,テキストに基づく意思決定におけるセマンティクスと感情の影響を組み合わせた計算フレームワークを提案する。
特にカテゴリー2-を導入し、カテゴリー的ジストとカテゴリー的感情を学習し、グループや個人におけるリスクのある意思決定を予測するために、我々の計算モデルを最適化する方法を実証する。
論文 参考訳(メタデータ) (2022-05-15T02:25:28Z) - The Conflict Between Explainable and Accountable Decision-Making
Algorithms [10.64167691614925]
意思決定アルゴリズムは、誰が医療プログラムに登録され、雇用されるべきかといった重要な決定に使われています。
XAIイニシアチブは、法的要件に準拠し、信頼を促進し、説明責任を維持するために、アルゴリズムを説明可能にすることを目的としている。
本稿では,自律型AIシステムによって引き起こされる責任問題の解決に,説明可能性がどの程度役立つのかを問う。
論文 参考訳(メタデータ) (2022-05-11T07:19:28Z) - Deep Learning Reproducibility and Explainable AI (XAI) [9.13755431537592]
ディープラーニング(DL)学習アルゴリズムの非決定性とそのニューラルネットワーク(NN)モデルの説明可能性への影響について検討した。
この問題について議論するため、2つの畳み込みニューラルネットワーク(CNN)をトレーニングし、その結果を比較した。
論文 参考訳(メタデータ) (2022-02-23T12:06:20Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。