論文の概要: Even-Ifs From If-Onlys: Are the Best Semi-Factual Explanations Found
Using Counterfactuals As Guides?
- arxiv url: http://arxiv.org/abs/2403.00980v1
- Date: Fri, 1 Mar 2024 21:04:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-05 15:49:27.281204
- Title: Even-Ifs From If-Onlys: Are the Best Semi-Factual Explanations Found
Using Counterfactuals As Guides?
- Title(参考訳): If-Onlysの偶像: カウンターファクチュアルをガイドとして、最良の半実像説明法が見つかるか?
- Authors: Saugat Aryal, Mark T. Keane
- Abstract要約: いくつかの半実生産法は、半実生産を誘導するために反実物を用いる。
5つの主要な指標を用いて、7つのデータセットに対して8つの半実例メソッドの包括的なテストを行う。
これらのテストの結果は、決定領域の他の側面の計算は、より優れた半現実的XAIをもたらすことを示唆している。
- 参考スコア(独自算出の注目度): 5.914934713078162
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, counterfactuals using "if-only" explanations have become very
popular in eXplainable AI (XAI), as they describe which changes to
feature-inputs of a black-box AI system result in changes to a (usually
negative) decision-outcome. Even more recently, semi-factuals using "even-if"
explanations have gained more attention. They elucidate the feature-input
changes that do \textit{not} change the decision-outcome of the AI system, with
a potential to suggest more beneficial recourses. Some semi-factual methods use
counterfactuals to the query-instance to guide semi-factual production
(so-called counterfactual-guided methods), whereas others do not (so-called
counterfactual-free methods). In this work, we perform comprehensive tests of 8
semi-factual methods on 7 datasets using 5 key metrics, to determine whether
counterfactual guidance is necessary to find the best semi-factuals. The
results of these tests suggests not, but rather that computing other aspects of
the decision space lead to better semi-factual XAI.
- Abstract(参考訳): 近年,eXplainable AI(XAI)では,ブラックボックスAIシステムの特徴入力の変更が,(通常は否定的な)意思決定結果にどのような変化をもたらすかを説明するために,"if-only"説明を用いたファクトファクトファクトが広く普及している。
さらに最近では、"even-if"の説明を用いた半事実が注目を集めている。
彼らは、AIシステムの意思決定結果を変える機能インプットの変更を解明し、より有益な会話を提案する可能性がある。
いくつかのセミファクトリアルメソッドは、クエリインスティスタンスに反ファクトリアルを使用してセミファクトリアル生産(いわゆる反ファクトリアルガイド方式)を導くが、他のメソッド(いわゆる反ファクトフリー方式)はそうではない。
そこで本研究では,5つの主要な指標を用いて7つのデータセット上で8つの半実数法を総合的にテストし,最善の半実数を求めるために逆実数指導が必要かどうかを判定する。
これらのテストの結果は、決定領域の他の側面の計算は、より優れた半現実的XAIをもたらすことを示唆している。
関連論文リスト
- Efficient Weighting Schemes for Auditing Instant-Runoff Voting Elections [57.67176250198289]
AWAIREは、適応的に重み付けされたテスト統計量であり、本質的には、テストに有効な仮説のセットを「学習」する。
我々は、より広範囲にスキームと設定を検討し、実践のための効率的な選択を特定し、推奨する。
現在のAWAIRE実装の制限は、少数の候補者に限られている。
論文 参考訳(メタデータ) (2024-02-18T10:13:01Z) - Even if Explanations: Prior Work, Desiderata & Benchmarks for
Semi-Factual XAI [7.881140597011731]
反事実的、半事実的なサブタイプは、AIではあまり注目されていない。
本稿では,この地域の歴史的・最近のブレークスルーを要約する文献を調査する。
半実のXAIのための重要なデシラタを定義し、過去のアルゴリズムのベンチマークテストを報告している。
論文 参考訳(メタデータ) (2023-01-27T19:58:12Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Double Trouble: How to not explain a text classifier's decisions using
counterfactuals synthesized by masked language models? [34.18339528128342]
多くの説明法の背後にある根底にある原則は、入力特徴が帰属として削除される前と後の間の予測差を取ることである。
IM(Input Marginalization)と呼ばれる最近の手法では、BERTを使用してトークンを置換し、より妥当な偽造物を生成する。
しかし、5つの指標と3つのデータセットを用いた厳密な評価では、IMの説明は、単に単語を削除することに由来するものよりも、一貫してバイアスがあり、正確で、信頼性が低いことが分かりました。
論文 参考訳(メタデータ) (2021-10-22T17:22:05Z) - Search Methods for Sufficient, Socially-Aligned Feature Importance
Explanations with In-Distribution Counterfactuals [72.00815192668193]
特徴重要度(FI)推定は一般的な説明形式であり、テスト時に特定の入力特徴を除去することによって生じるモデル信頼度の変化を計算し、評価することが一般的である。
FIに基づく説明の未探索次元についていくつかの考察を行い、この説明形式に対する概念的および実証的な改善を提供する。
論文 参考訳(メタデータ) (2021-06-01T20:36:48Z) - On Generating Plausible Counterfactual and Semi-Factual Explanations for
Deep Learning [15.965337956587373]
PlausIble Exceptionality-based Contrastive Explanations (PIECE) は、テストイメージにおけるすべての例外的特徴を、対実クラスの観点から正規化するように修正する。
2つの制御された実験は、PIECEを文献上の他のものと比較し、PIECEはいくつかの尺度において最も妥当な反事実を生成するだけでなく、最良の半事実も生成することを示した。
論文 参考訳(メタデータ) (2020-09-10T14:48:12Z) - Taking the Counterfactual Online: Efficient and Unbiased Online
Evaluation for Ranking [74.46448041224247]
データロギングのポリシーを最適化する新しいロギング・ポリシ最適化アルゴリズム(LogOpt)を導入する。
LogOptは、ログポリシーに無関係な反ファクト的なアプローチをオンラインアプローチに変換し、アルゴリズムが表示すべきランキングを決定する。
オンライン評価手法として、LogOptは既存のインターリービング方法とは異なり、位置と項目選択バイアスに偏りがないことが証明されている。
論文 参考訳(メタデータ) (2020-07-24T18:05:58Z) - Evaluating Explainable AI: Which Algorithmic Explanations Help Users
Predict Model Behavior? [97.77183117452235]
我々は、モデル解釈性に対するアルゴリズム的説明の影響を分離するために、人体テストを実施している。
方法の有効性の明確な証拠はごく少数にみえる。
以上の結果から,説明がシミュラビリティにどのように影響するかの信頼性と包括的評価が得られた。
論文 参考訳(メタデータ) (2020-05-04T20:35:17Z) - DisCor: Corrective Feedback in Reinforcement Learning via Distribution
Correction [96.90215318875859]
ブートストラップに基づくQ-ラーニングアルゴリズムは必ずしも修正フィードバックの恩恵を受けないことを示す。
本稿では,この最適分布に対する近似を計算し,トレーニングに使用する遷移の重み付けに使用する新しいアルゴリズムであるDisCorを提案する。
論文 参考訳(メタデータ) (2020-03-16T16:18:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。