論文の概要: Causal Explanations and XAI
- arxiv url: http://arxiv.org/abs/2201.13169v1
- Date: Mon, 31 Jan 2022 12:32:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-01 16:23:34.821052
- Title: Causal Explanations and XAI
- Title(参考訳): 因果説明とxai
- Authors: Sander Beckers
- Abstract要約: 説明可能な人工知能(XAI)の重要な目標は、説明を提供することでミスマッチを補うことである。
十分な説明と事実的説明の因果的概念を正式に定義し、さらに一歩踏み出します。
また、この研究のAIにおける公正性に対する重要性についても触れ、パス固有の反現実的公正性の概念を改善するために、実際の因果関係をどのように利用できるかを示しています。
- 参考スコア(独自算出の注目度): 8.909115457491522
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although standard Machine Learning models are optimized for making
predictions about observations, more and more they are used for making
predictions about the results of actions. An important goal of Explainable
Artificial Intelligence (XAI) is to compensate for this mismatch by offering
explanations about the predictions of an ML-model which ensure that they are
reliably action-guiding. As action-guiding explanations are causal
explanations, the literature on this topic is starting to embrace insights from
the literature on causal models. Here I take a step further down this path by
formally defining the causal notions of sufficient explanations and
counterfactual explanations. I show how these notions relate to (and improve
upon) existing work, and motivate their adequacy by illustrating how different
explanations are action-guiding under different circumstances. Moreover, this
work is the first to offer a formal definition of actual causation that is
founded entirely in action-guiding explanations. Although the definitions are
motivated by a focus on XAI, the analysis of causal explanation and actual
causation applies in general. I also touch upon the significance of this work
for fairness in AI by showing how actual causation can be used to improve the
idea of path-specific counterfactual fairness.
- Abstract(参考訳): 標準的な機械学習モデルは観測結果の予測に最適化されているが、アクションの結果の予測にはますます使われている。
説明可能な人工知能(xai)の重要な目標は、mlモデルの予測に関する説明を提供することで、このミスマッチを補うことである。
行動指導的説明は因果的説明であり、この話題に関する文献は因果的モデルに関する文献からの洞察を受け入れ始めている。
ここでは、十分な説明と反事実の説明の因果概念を正式に定義することで、この道をさらに踏み出す。
私は、これらの概念が既存の仕事とどのように関連(そして改善)するかを示し、異なる状況下で異なる説明がいかにアクションガイドであるかを示すことによって、彼らの妥当性をモチベーションします。
さらに、この研究は、行動指導的説明に完全に根ざした、実際の因果関係を公式に定義する最初のものである。
定義はxaiに焦点をあてたものだが、因果説明と実際の因果関係の分析は一般に適用される。
また、この研究のAIにおける公正性に対する重要性についても触れ、パス固有の反現実的公正性の概念を改善するために、実際の因果関係をどのように利用できるかを示す。
関連論文リスト
- Dissenting Explanations: Leveraging Disagreement to Reduce Model Overreliance [4.962171160815189]
本稿では, 矛盾する説明, 付随する説明と矛盾する予測について紹介する。
まず、モデル乗法の設定における不一致の説明の利点を考察する。
本研究では,不一致説明が全体の精度を低下させることなく,モデル予測の過度な信頼性を低下させることを実証する。
論文 参考訳(メタデータ) (2023-07-14T21:27:00Z) - Abductive Commonsense Reasoning Exploiting Mutually Exclusive
Explanations [118.0818807474809]
帰納的推論は、イベントのもっともらしい説明を見つけることを目的としている。
自然言語処理における帰納的推論のための既存のアプローチは、しばしば監督のために手動で生成されたアノテーションに依存している。
この研究は、ある文脈に対して、説明のサブセットのみが正しいという事実を活用する、帰納的コモンセンス推論のアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-24T01:35:10Z) - CLEAR: Generative Counterfactual Explanations on Graphs [60.30009215290265]
グラフ上での対実的説明生成の問題について検討する。
グラフに関する反実的な説明を調査する研究はいくつかあるが、この問題の多くの課題はまだ十分に適応されていない。
本稿では,グラフレベルの予測モデルに対して,グラフ上の反実的説明を生成するための新しいフレームワークCLEARを提案する。
論文 参考訳(メタデータ) (2022-10-16T04:35:32Z) - Eliminating The Impossible, Whatever Remains Must Be True [46.39428193548396]
より簡潔な「なぜ」形式的な説明をするために背景知識を適用する方法を示す。
また,既存のルール誘導手法を用いて,データセットから背景情報を効率的に抽出する方法を示す。
論文 参考訳(メタデータ) (2022-06-20T03:18:14Z) - Explaining Causal Models with Argumentation: the Case of Bi-variate
Reinforcement [15.947501347927687]
因果モデルから議論フレームワーク(AF)を生成するための概念化を導入する。
この概念化は、AFの意味論の望ましい性質を説明型として再解釈することに基づいている。
我々はこれらの論証的説明の理論的評価を行い、それらが望ましい説明的および論証的特性の範囲を満たすかどうかを検討する。
論文 参考訳(メタデータ) (2022-05-23T19:39:51Z) - Visual Abductive Reasoning [85.17040703205608]
帰納的推論は、部分的な観察の可能な限りの可能な説明を求める。
本稿では,日常的な視覚的状況下でのマシンインテリジェンスの帰納的推論能力を調べるために,新たなタスクとデータセットであるVisual Abductive Reasoning(VAR)を提案する。
論文 参考訳(メタデータ) (2022-03-26T10:17:03Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z) - Aligning Faithful Interpretations with their Social Attribution [58.13152510843004]
モデル解釈が忠実であることの要件はあいまいで不完全であることに気付く。
因果的帰属(因果的帰属)と解釈(社会的帰属)に対する人間の行動の帰属(因果的帰属)の相違が問題であると認識する。
論文 参考訳(メタデータ) (2020-06-01T16:45:38Z) - Order Matters: Generating Progressive Explanations for Planning Tasks in
Human-Robot Teaming [11.35869940310993]
本稿では,説明文を複数の部分に分割して順次通信する場合に,説明文生成時の影響を調査することを目的とする。
我々はまず,スキャベンジャーハントドメインに対するアプローチを評価し,人間の嗜好を効果的に捉えることを実証した。
その結果,説明の理解過程は動的過程であるという仮説が得られた。
論文 参考訳(メタデータ) (2020-04-16T00:17:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。