論文の概要: Latent-CF: A Simple Baseline for Reverse Counterfactual Explanations
- arxiv url: http://arxiv.org/abs/2012.09301v1
- Date: Wed, 16 Dec 2020 22:35:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-03 04:57:47.791537
- Title: Latent-CF: A Simple Baseline for Reverse Counterfactual Explanations
- Title(参考訳): Latent-CF: 逆の相互説明のためのシンプルなベースライン
- Authors: Rachana Balasubramanian, Samuel Sharpe, Brian Barr, Jason Wittenbach,
and C. Bayan Bruss
- Abstract要約: 質の高い説明は公平性を評価するための第一歩である。
それらを製造するためのベースラインを見つけることが重要です。
潜在空間の反事実生成は,基本特徴勾配降下手法の速度と,より複雑な特徴空間指向手法によって生成された反事実の真正性との間にバランスをとることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the environment of fair lending laws and the General Data Protection
Regulation (GDPR), the ability to explain a model's prediction is of paramount
importance. High quality explanations are the first step in assessing fairness.
Counterfactuals are valuable tools for explainability. They provide actionable,
comprehensible explanations for the individual who is subject to decisions made
from the prediction. It is important to find a baseline for producing them. We
propose a simple method for generating counterfactuals by using gradient
descent to search in the latent space of an autoencoder and benchmark our
method against approaches that search for counterfactuals in feature space.
Additionally, we implement metrics to concretely evaluate the quality of the
counterfactuals. We show that latent space counterfactual generation strikes a
balance between the speed of basic feature gradient descent methods and the
sparseness and authenticity of counterfactuals generated by more complex
feature space oriented techniques.
- Abstract(参考訳): 公正貸付法と一般データ保護規則(GDPR)の環境においては、モデルの予測を説明する能力が最も重要である。
高品質な説明は公平さを評価する最初のステップです。
カウンターファクトは説明可能性にとって貴重なツールです。
予測から決定される個人に対して、実行可能な、理解可能な説明を提供する。
それらを製造するためのベースラインを見つけることが重要です。
自動エンコーダの潜伏空間における探索に勾配勾配を用いた反事実生成法を提案し, 特徴空間における反事実探索手法に対して, 本手法をベンチマークする。
さらに,対策品の品質を具体的に評価する指標を実装した。
潜在空間の反事実生成は,基本的な特徴勾配降下手法の速度と,より複雑な特徴空間指向手法によって生じる反事実のばらつきと信頼性のバランスをとることを示す。
関連論文リスト
- Fast Calibrated Explanations: Efficient and Uncertainty-Aware Explanations for Machine Learning Models [41.82622187379551]
本稿では,機械学習モデルに対する高速かつ不確実な説明を生成する手法であるFast Calibrated Explanationsを紹介する。
ConformaSightの摂動手法をCalibrated Explanationsのコア要素に組み込むことで,大幅な高速化を実現する。
この新しい手法は細部を犠牲にするが、計算効率は優れており、高速でリアルタイムなアプリケーションに最適である。
論文 参考訳(メタデータ) (2024-10-28T15:29:35Z) - Backdoor-based Explainable AI Benchmark for High Fidelity Evaluation of Attribution Methods [49.62131719441252]
属性法は入力特徴の重要度を計算し、深層モデルの出力予測を説明する。
本研究はまず,属性手法の信頼性ベンチマークが満たすであろう信頼度基準の集合を同定する。
次に、望ましい忠実度基準に準拠したBackdoorベースのeXplainable AIベンチマーク(BackX)を紹介します。
論文 参考訳(メタデータ) (2024-05-02T13:48:37Z) - Faithful Explanations of Black-box NLP Models Using LLM-generated
Counterfactuals [67.64770842323966]
NLPシステムの予測に関する因果的説明は、安全性を確保し、信頼を確立するために不可欠である。
既存の手法は、しばしばモデル予測を効果的または効率的に説明できない。
本稿では, 対物近似(CF)の2つの手法を提案する。
論文 参考訳(メタデータ) (2023-10-01T07:31:04Z) - LaPLACE: Probabilistic Local Model-Agnostic Causal Explanations [1.0370398945228227]
本稿では,機械学習モデルに対する確率論的原因・効果説明を提供するLaPLACE-Explainerを紹介する。
LaPLACE-Explainerコンポーネントはマルコフ毛布の概念を利用して、関連する特徴と非関連する特徴の間の統計的境界を確立する。
提案手法は,LIME と SHAP の局所的精度と特徴の整合性の観点から,因果的説明と性能を向上する。
論文 参考訳(メタデータ) (2023-10-01T04:09:59Z) - Simple Steps to Success: A Method for Step-Based Counterfactual Explanations [9.269923473051138]
本稿では,データ駆動型モデル依存型フレームワークを提案する。
計算効率のよいStEPはデータ多様体に沿って漸進的なステップを提供し、ユーザを望ましい結果へと誘導する。
論文 参考訳(メタデータ) (2023-06-27T15:35:22Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Don't Explain Noise: Robust Counterfactuals for Randomized Ensembles [50.81061839052459]
我々は確率論的問題として、堅牢な対実的説明の生成を定式化する。
アンサンブルモデルのロバスト性とベース学習者のロバスト性との関係を示す。
本手法は, 反実的説明から初期観測までの距離をわずかに増加させるだけで, 高いロバスト性を実現する。
論文 参考訳(メタデータ) (2022-05-27T17:28:54Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Optimal Counterfactual Explanations in Tree Ensembles [3.8073142980733]
我々は「最適」な説明を目的としたモデルに基づく探索を提唱し、効率的な混合整数プログラミング手法を提案する。
孤立林は我々のフレームワーク内でモデル化され、低いアウトリーチスコアで妥当な説明に焦点を絞ることができることを示す。
論文 参考訳(メタデータ) (2021-06-11T22:44:27Z) - Memory networks for consumer protection:unfairness exposed [12.884439911728112]
データ駆動型AIメソッドは、法的文書の自動解析をサポートすることで、消費者保護を活用することができる。
本稿では,文脈知識のモデリングにおいて,理論的に重要な役割を負うメモリ拡張ニューラルネットワークの構成について考察する。
以上の結果から,有理性は分類精度の向上に寄与するだけでなく,意味のある自然言語による説明も可能であることが示唆された。
論文 参考訳(メタデータ) (2020-07-24T14:25:54Z) - Evaluations and Methods for Explanation through Robustness Analysis [117.7235152610957]
分析による特徴に基づく説明の新たな評価基準を確立する。
我々は、緩やかに必要であり、予測に十分である新しい説明を得る。
我々は、現在の予測をターゲットクラスに移動させる一連の特徴を抽出するために、説明を拡張します。
論文 参考訳(メタデータ) (2020-05-31T05:52:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。