論文の概要: Computing Rule-Based Explanations by Leveraging Counterfactuals
- arxiv url: http://arxiv.org/abs/2210.17071v1
- Date: Mon, 31 Oct 2022 05:20:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 19:30:20.400494
- Title: Computing Rule-Based Explanations by Leveraging Counterfactuals
- Title(参考訳): 反事実を利用した規則に基づく説明の計算
- Authors: Zixuan Geng, Maximilian Schleich, Dan Suciu
- Abstract要約: ルールベースの説明は計算に非効率であり、既存のシステムは適切なパフォーマンスを達成するために品質を犠牲にする。
本稿では,異なるタイプの説明法を用いて,ルールに基づく説明を計算するための新しい手法を提案する。
我々は、ルールベースと反ファクトベースの説明が相互に二重であることを示すデュナリティ定理を証明し、この観察を用いてルールベースの説明を計算するための効率的なアルゴリズムを開発する。
- 参考スコア(独自算出の注目度): 17.613690272861053
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sophisticated machine models are increasingly used for high-stakes decisions
in everyday life. There is an urgent need to develop effective explanation
techniques for such automated decisions. Rule-Based Explanations have been
proposed for high-stake decisions like loan applications, because they increase
the users' trust in the decision. However, rule-based explanations are very
inefficient to compute, and existing systems sacrifice their quality in order
to achieve reasonable performance. We propose a novel approach to compute
rule-based explanations, by using a different type of explanation,
Counterfactual Explanations, for which several efficient systems have already
been developed. We prove a Duality Theorem, showing that rule-based and
counterfactual-based explanations are dual to each other, then use this
observation to develop an efficient algorithm for computing rule-based
explanations, which uses the counterfactual-based explanation as an oracle. We
conduct extensive experiments showing that our system computes rule-based
explanations of higher quality, and with the same or better performance, than
two previous systems, MinSetCover and Anchor.
- Abstract(参考訳): 高度なマシンモデルは、日常生活で高リスクの決定にますます使われている。
このような自動決定のための効果的な説明手法を開発する必要がある。
ローンアプリケーションのような高リスクの決定には、ユーザの決定に対する信頼度を高めるためにルールベースの説明が提案されている。
しかし、ルールベースの説明は計算に非常に非効率であり、既存のシステムは合理的な性能を達成するために品質を犠牲にする。
提案手法は,複数の効率的なシステムがすでに開発されている,異なるタイプの説明法である対実説明法を用いて,ルールに基づく説明を計算するための新しい手法を提案する。
本稿では,ルールベースと反ファクトベースの説明が相互に二重であることを示すデュナリティ定理を証明し,これを用いてルールベースの説明を計算するための効率的なアルゴリズムを開発した。
我々は,従来の2つのシステムであるMinSetCoverとAnchorよりも高い品質,あるいは同等あるいは優れた性能のルールベースの説明を計算できることを示す広範な実験を行った。
関連論文リスト
- An AI Architecture with the Capability to Explain Recognition Results [0.0]
本研究は、説明可能性に対するメトリクスの重要性に焦点をあて、性能向上をもたらす2つの方法に貢献する。
第1の方法は説明不能なフローと説明不能なフローの組み合わせを導入し、意思決定の説明容易性を特徴づける指標を提案する。
第2の方法は、システム内のニューラルネットワークの有効性を推定するための古典的なメトリクスを比較し、新しいメトリックをリードパフォーマーとして振る舞う。
論文 参考訳(メタデータ) (2024-06-13T02:00:13Z) - Introducing User Feedback-based Counterfactual Explanations (UFCE) [49.1574468325115]
対実的説明(CE)は、XAIで理解可能な説明を生成するための有効な解決策として浮上している。
UFCEは、アクション可能な機能のサブセットで最小限の変更を決定するために、ユーザー制約を含めることができる。
UFCEは、textitproximity(英語版)、textitsparsity(英語版)、textitfeasibility(英語版)の2つのよく知られたCEメソッドより優れている。
論文 参考訳(メタデータ) (2024-02-26T20:09:44Z) - Explainability for Machine Learning Models: From Data Adaptability to
User Perception [0.8702432681310401]
この論文は、すでにデプロイされた機械学習モデルに対する局所的な説明の生成を探求する。
データとユーザ要件の両方を考慮して、意味のある説明を生み出すための最適な条件を特定することを目的としている。
論文 参考訳(メタデータ) (2024-02-16T18:44:37Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - Explainable Data-Driven Optimization: From Context to Decision and Back
Again [76.84947521482631]
データ駆動最適化では、コンテキスト情報と機械学習アルゴリズムを使用して、不確実なパラメータによる決定問題の解決策を見つける。
本稿では,データ駆動型問題に対する解法を説明するために,対実的説明手法を提案する。
在庫管理やルーティングといった運用管理における重要な問題を説明することで,我々のアプローチを実証する。
論文 参考訳(メタデータ) (2023-01-24T15:25:16Z) - Complementary Explanations for Effective In-Context Learning [77.83124315634386]
大規模言語モデル (LLM) は、説明のインプロンプトから学習する際、顕著な能力を示した。
この研究は、文脈内学習に説明が使用されるメカニズムをよりよく理解することを目的としている。
論文 参考訳(メタデータ) (2022-11-25T04:40:47Z) - Detection Accuracy for Evaluating Compositional Explanations of Units [5.220940151628734]
このアプローチを使う方法の2つの例は、ネットワーク分割と構成的説明である。
直感的には、論理形式は原子概念よりも情報的であるが、この改善を定量化する方法は明らかではない。
提案手法は,各ユニットが割り当てた説明文の検出の一貫性を計測する検出精度の評価指標として用いる。
論文 参考訳(メタデータ) (2021-09-16T08:47:34Z) - Convex optimization for actionable \& plausible counterfactual
explanations [9.104557591459283]
透明性は、現実世界でデプロイされる機械学習ベースの意思決定システムにとって不可欠な要件です。
反事実的説明は、意思決定システムの特に直感的な説明の顕著な例である。
本研究は, 動作可能性と信頼性を確保するメカニズムにより, 反事実的説明を計算するための凸モデリングの先行研究を強化する。
論文 参考訳(メタデータ) (2021-05-17T06:33:58Z) - Efficient computation of contrastive explanations [8.132423340684568]
対照的な説明と反実的な説明の関係について検討する。
本稿では,多くの標準機械学習モデルの正値(有理)を効率的に計算する2相アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-06T11:50:28Z) - From Checking to Inference: Actual Causality Computations as
Optimization Problems [79.87179017975235]
本稿では、最適化問題として二元非巡回モデルよりも、因果推論の異なる概念を定式化するための新しいアプローチを提案する。
8000ドル以上の変数を持つモデルを用いて,MaxSAT が ILP を上回り,数秒単位でチェック処理を行う場合が多い。
論文 参考訳(メタデータ) (2020-06-05T10:56:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。