論文の概要: Evaluating counterfactual explanations using Pearl's counterfactual
method
- arxiv url: http://arxiv.org/abs/2301.02499v1
- Date: Fri, 6 Jan 2023 13:18:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-09 23:22:36.435868
- Title: Evaluating counterfactual explanations using Pearl's counterfactual
method
- Title(参考訳): パールの反実的手法による反実的説明の評価
- Authors: Bevan I. Smith
- Abstract要約: 対実的説明(英: Counterfactual explanations、CE)は、異なる望ましい結果を生み出す別のシナリオを生成する方法である。
CEは現在、データの真の因果構造を必ずしも考慮しない機械学習モデルから生成される。
そこで本研究では,ユデア・パール(Judea Pearl)の計算正解法を用いてCEをテストすることを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Counterfactual explanations (CEs) are methods for generating an alternative
scenario that produces a different desirable outcome. For example, if a student
is predicted to fail a course, then counterfactual explanations can provide the
student with alternate ways so that they would be predicted to pass. The
applications are many. However, CEs are currently generated from machine
learning models that do not necessarily take into account the true causal
structure in the data. By doing this, bias can be introduced into the CE
quantities. I propose in this study to test the CEs using Judea Pearl's method
of computing counterfactuals which has thus far, surprisingly, not been seen in
the counterfactual explanation (CE) literature. I furthermore evaluate these
CEs on three different causal structures to show how the true underlying causal
structure affects the CEs that are generated. This study presented a method of
evaluating CEs using Pearl's method and it showed, (although using a limited
sample size), that thirty percent of the CEs conflicted with those computed by
Pearl's method. This shows that we cannot simply trust CEs and it is vital for
us to know the true causal structure before we blindly compute counterfactuals
using the original machine learning model.
- Abstract(参考訳): 対実的な説明 (CE) は、異なる望ましい結果を生み出す別のシナリオを生成する方法である。
例えば、もし学生がコースを失敗すると予測された場合、反実的な説明は生徒が合格すると予測される別の方法を与えることができる。
アプリケーションはたくさんあります。
しかし、CEは必ずしもデータの真の因果構造を考慮していない機械学習モデルから現在生成されている。
これにより、CE量にバイアスを導入することができる。
本研究は,これまでのところ反事実説明(ce)文献に見られない,judea pearlの反事実計算法を用いてcesをテストするためのものである。
さらに,これらのCEを3つの異なる因果構造上で評価し,その根底構造が生成するCEにどのように影響するかを示す。
本研究は,pearl法を用いてcesを評価する方法を示し,(限られたサンプルサイズではあるが)cesの30%がpearl法で計算したものと矛盾していることを示した。
このことは、CEを単に信頼できないことを示し、元の機械学習モデルを使ってカウンターファクトを盲目的に計算する前に、真の因果構造を知ることが不可欠であることを示している。
関連論文リスト
- Counterfactual Explanations for Linear Optimization [0.0]
対実的説明(CE)の概念は、複雑なAIシステムの内部動作を理解するための重要な概念の1つとして登場した。
本稿では,CEの考え方を線形最適化に変換し,3種類のCE(強度,弱度,相対性)の提案,動機付け,解析を行う。
論文 参考訳(メタデータ) (2024-05-24T10:58:00Z) - Introducing User Feedback-based Counterfactual Explanations (UFCE) [49.1574468325115]
対実的説明(CE)は、XAIで理解可能な説明を生成するための有効な解決策として浮上している。
UFCEは、アクション可能な機能のサブセットで最小限の変更を決定するために、ユーザー制約を含めることができる。
UFCEは、textitproximity(英語版)、textitsparsity(英語版)、textitfeasibility(英語版)の2つのよく知られたCEメソッドより優れている。
論文 参考訳(メタデータ) (2024-02-26T20:09:44Z) - Counterfactual Explanation for Regression via Disentanglement in Latent
Space [19.312306559210125]
本稿では,事前学習した回帰器の対実説明(CE)を生成する新しい手法を提案する。
提案手法は, 提案手法の検索において, 問合せサンプルの特性を維持できることを示す。
当社のコードは,この作業の公開と同時に,オープンソースパッケージとして公開されます。
論文 参考訳(メタデータ) (2023-11-14T15:08:14Z) - Learning to Scaffold: Optimizing Model Explanations for Teaching [74.25464914078826]
我々は3つの自然言語処理とコンピュータビジョンタスクのモデルを訓練する。
筆者らは,本フレームワークで抽出した説明文を学習した学生が,従来の手法よりもはるかに効果的に教師をシミュレートできることを発見した。
論文 参考訳(メタデータ) (2022-04-22T16:43:39Z) - On the Robustness of Counterfactual Explanations to Adverse
Perturbations [0.0]
我々は、不運な状況によって自然に起こりうる、有害な摂動に対する堅牢性について検討する。
私たちは堅牢性の定義を2つ提供します。
我々の実験では、CEは多くの場合、堅牢ではないことが示され、もし悪質な摂動が起これば、彼らが要求する介入は予想よりもはるかにコストがかかる可能性がある。
論文 参考訳(メタデータ) (2022-01-22T13:57:45Z) - Nested Counterfactual Identification from Arbitrary Surrogate
Experiments [95.48089725859298]
観測と実験の任意の組み合わせからネスト反事実の同定について検討した。
具体的には、任意のネストされた反事実を非ネストされたものへ写像できる反ファクト的非ネスト定理(英語版)(CUT)を証明する。
論文 参考訳(メタデータ) (2021-07-07T12:51:04Z) - Causal Expectation-Maximisation [70.45873402967297]
ポリツリーグラフを特徴とするモデルにおいても因果推論はNPハードであることを示す。
我々は因果EMアルゴリズムを導入し、分類的表現変数のデータから潜伏変数の不確かさを再構築する。
我々は、反事実境界が構造方程式の知識なしにしばしば計算できるというトレンドのアイデアには、目立たずの制限があるように思える。
論文 参考訳(メタデータ) (2020-11-04T10:25:13Z) - Long-Tailed Classification by Keeping the Good and Removing the Bad
Momentum Causal Effect [95.37587481952487]
長い尾の分類は、大規模なディープラーニングの鍵である。
既存の手法は主に、基本的な理論を欠いた再重み付け/再サンプリングに基づいている。
本稿では,従来の手法の理由を解明するだけでなく,新たな原理的解を導出する因果推論の枠組みを確立する。
論文 参考訳(メタデータ) (2020-09-28T00:32:11Z) - The Intriguing Relation Between Counterfactual Explanations and
Adversarial Examples [0.0]
我々は、真のラベルとの関係と近接性に対する寛容性は、CEとAEを正式に区別する2つの性質であると主張する。
CEを生成するための現在のメソッドとAEのコネクションを示し、共通ユースケースの数が増えるにつれて、フィールドがますますマージされていくと推定する。
論文 参考訳(メタデータ) (2020-09-11T15:09:12Z) - On Generating Plausible Counterfactual and Semi-Factual Explanations for
Deep Learning [15.965337956587373]
PlausIble Exceptionality-based Contrastive Explanations (PIECE) は、テストイメージにおけるすべての例外的特徴を、対実クラスの観点から正規化するように修正する。
2つの制御された実験は、PIECEを文献上の他のものと比較し、PIECEはいくつかの尺度において最も妥当な反事実を生成するだけでなく、最良の半事実も生成することを示した。
論文 参考訳(メタデータ) (2020-09-10T14:48:12Z) - SCOUT: Self-aware Discriminant Counterfactual Explanations [78.79534272979305]
対物的視覚的説明の問題点を考察する。
新しい差別的な説明の族が紹介される。
結果として生じる反実的な説明は、最適化が自由で、従って以前の方法よりもはるかに高速である。
論文 参考訳(メタデータ) (2020-04-16T17:05:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。