論文の概要: Introducing User Feedback-based Counterfactual Explanations (UFCE)
- arxiv url: http://arxiv.org/abs/2403.00011v1
- Date: Mon, 26 Feb 2024 20:09:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-11 00:18:51.261587
- Title: Introducing User Feedback-based Counterfactual Explanations (UFCE)
- Title(参考訳): ユーザフィードバックに基づく反事実説明(ufce)の導入
- Authors: Muhammad Suffian, Jose M. Alonso-Moral, Alessandro Bogliolo
- Abstract要約: 対実的説明(CE)は、XAIで理解可能な説明を生成するための有効な解決策として浮上している。
UFCEは、アクション可能な機能のサブセットで最小限の変更を決定するために、ユーザー制約を含めることができる。
UFCEは、textitproximity(英語版)、textitsparsity(英語版)、textitfeasibility(英語版)の2つのよく知られたCEメソッドより優れている。
- 参考スコア(独自算出の注目度): 49.1574468325115
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning models are widely used in real-world applications. However,
their complexity makes it often challenging to interpret the rationale behind
their decisions. Counterfactual explanations (CEs) have emerged as a viable
solution for generating comprehensible explanations in eXplainable Artificial
Intelligence (XAI). CE provides actionable information to users on how to
achieve the desired outcome with minimal modifications to the input. However,
current CE algorithms usually operate within the entire feature space when
optimizing changes to turn over an undesired outcome, overlooking the
identification of key contributors to the outcome and disregarding the
practicality of the suggested changes. In this study, we introduce a novel
methodology, that is named as user feedback-based counterfactual explanation
(UFCE), which addresses these limitations and aims to bolster confidence in the
provided explanations. UFCE allows for the inclusion of user constraints to
determine the smallest modifications in the subset of actionable features while
considering feature dependence, and evaluates the practicality of suggested
changes using benchmark evaluation metrics. We conducted three experiments with
five datasets, demonstrating that UFCE outperforms two well-known CE methods in
terms of \textit{proximity}, \textit{sparsity}, and \textit{feasibility}.
Reported results indicate that user constraints influence the generation of
feasible CEs.
- Abstract(参考訳): 機械学習モデルは現実世界のアプリケーションで広く使われている。
しかし、その複雑さは、意思決定の背後にある理屈を解釈することがしばしば困難になる。
eXplainable Artificial Intelligence (XAI)において、対実的説明(CE)が理解可能な説明を生成するための有効なソリューションとして浮上している。
ceはユーザに対して、入力に最小限の変更を加えることで、望ましい結果を達成する方法に関するアクション可能な情報を提供する。
しかし、現在のCEアルゴリズムは、通常、変更を最適化して望ましくない結果に切り替える際に、その結果に対する主要なコントリビュータの識別を見落とし、提案された変更の実用性を無視して機能空間全体を運用する。
本研究では,このような制約に対処し,提供された説明に対する信頼感を高めることを目的とした,ユーザフィードバックに基づく反事実説明(ufce)と呼ばれる新しい手法を提案する。
ufceは、機能依存を考慮しながら、実行可能な機能のサブセットにおける最小の変更を決定するためにユーザ制約を組み込むことを可能にし、ベンチマーク評価メトリクスを用いて提案する変更の実用性を評価する。
我々は,5つのデータセットを用いて3つの実験を行い,UFCEがよく知られたCE法を, \textit{proximity}, \textit{sparsity}, \textit{feasibility}の2つで上回っていることを示した。
報告された結果から,ユーザ制約がCEの生成に影響を及ぼすことが示唆された。
関連論文リスト
- Refining Counterfactual Explanations With Joint-Distribution-Informed Shapley Towards Actionable Minimality [6.770853093478073]
対実的説明(CE)は、観測データによく似ているが、異なる機械学習(ML)モデル出力を生成するデータポイントを特定する。
既存のCEメソッドは、説明に含まれる不要な特徴の変化のため、実行可能効率が欠如していることが多い。
本稿では,CEの有効性を維持しつつ,必要な特徴変化を最小限に抑える手法を提案する。
論文 参考訳(メタデータ) (2024-10-07T18:31:19Z) - Flexible and Robust Counterfactual Explanations with Minimal Satisfiable
Perturbations [56.941276017696076]
我々は、最小満足度摂動(CEMSP)を用いた対実的説明法という概念的に単純だが効果的な解を提案する。
CEMSPは、意味論的に意味のある正常範囲の助けを借りて、異常な特徴の値を変更することを制限している。
既存の手法と比較して、我々は合成データセットと実世界のデータセットの両方で包括的な実験を行い、柔軟性を維持しつつ、より堅牢な説明を提供することを示した。
論文 参考訳(メタデータ) (2023-09-09T04:05:56Z) - Resilient Constrained Learning [94.27081585149836]
本稿では,学習課題を同時に解決しながら,要求に適応する制約付き学習手法を提案する。
我々はこの手法を、その操作を変更することで破壊に適応する生態システムを記述する用語に因んで、レジリエントな制約付き学習と呼ぶ。
論文 参考訳(メタデータ) (2023-06-04T18:14:18Z) - Counterfactual Explanations Using Optimization With Constraint Learning [0.0]
制約学習を用いた最適化手法(CE-OCL)を提案する。
具体的には,制約学習フレームワークによる最適化を,対実的説明の生成に活用する方法について議論する。
また,データ多様体の近接性と多様性に対処する2つの新しいモデリング手法を提案する。
論文 参考訳(メタデータ) (2022-09-22T13:27:21Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - CEBaB: Estimating the Causal Effects of Real-World Concepts on NLP Model
Behavior [26.248879735549277]
実世界の概念がMLモデルの出力挙動に与える影響を推定する因果推論問題として、モデル説明をキャストした。
自然言語処理(NLP)における概念に基づく説明手法を評価するための新しいベンチマークデータセットCEBaBを紹介する。
CEBaBを用いて,様々な仮定や概念を網羅した概念に基づく説明手法の質を比較した。
論文 参考訳(メタデータ) (2022-05-27T17:59:14Z) - Let's Go to the Alien Zoo: Introducing an Experimental Framework to
Study Usability of Counterfactual Explanations for Machine Learning [6.883906273999368]
反事実的説明(CFEs)は、心理的に根拠づけられたアプローチとして、ポストホックな説明を生み出している。
私たちは、エンゲージメントがあり、Webベースでゲームに触発された実験的なフレームワークであるAlien Zooを紹介します。
概念実証として,本手法の有効性と実用性を示す。
論文 参考訳(メタデータ) (2022-05-06T17:57:05Z) - Regularizing Variational Autoencoder with Diversity and Uncertainty
Awareness [61.827054365139645]
変分オートエンコーダ(VAE)は、償却変分推論に基づいて潜伏変数の後部を近似する。
よりディバースで不確実な潜在空間を学習するための代替モデルDU-VAEを提案する。
論文 参考訳(メタデータ) (2021-10-24T07:58:13Z) - DisCERN:Discovering Counterfactual Explanations using Relevance Features
from Neighbourhoods [1.9706200133168679]
DisCERNは、優れた対実的説明を作成するために必要な実行可能な変更を最小限に抑える効果的な戦略である。
機能関連性に基づく説明がDisCERNに「実行可能な機能」の最小サブセットを特定するためにいかに広く採用されているかを示す。
以上の結果から, DisCERN は, 適切な対実的説明作成に必要な実行可能な変更を最小化するための効果的な戦略であることが示唆された。
論文 参考訳(メタデータ) (2021-09-13T09:25:25Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。