論文の概要: DisCERN:Discovering Counterfactual Explanations using Relevance Features
from Neighbourhoods
- arxiv url: http://arxiv.org/abs/2109.05800v1
- Date: Mon, 13 Sep 2021 09:25:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-15 03:01:35.162010
- Title: DisCERN:Discovering Counterfactual Explanations using Relevance Features
from Neighbourhoods
- Title(参考訳): 識別:近隣住民の関連特徴を用いた反事実的説明の発見
- Authors: Nirmalie Wiratunga, Anjana Wijekoon, Ikechukwu Nkisi-Orji, Kyle
Martin, Chamath Palihawadana, David Corsar
- Abstract要約: DisCERNは、優れた対実的説明を作成するために必要な実行可能な変更を最小限に抑える効果的な戦略である。
機能関連性に基づく説明がDisCERNに「実行可能な機能」の最小サブセットを特定するためにいかに広く採用されているかを示す。
以上の結果から, DisCERN は, 適切な対実的説明作成に必要な実行可能な変更を最小化するための効果的な戦略であることが示唆された。
- 参考スコア(独自算出の注目度): 1.9706200133168679
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Counterfactual explanations focus on "actionable knowledge" to help end-users
understand how a machine learning outcome could be changed to a more desirable
outcome. For this purpose a counterfactual explainer needs to discover input
dependencies that relate to outcome changes. Identifying the minimum subset of
feature changes needed to action an output change in the decision is an
interesting challenge for counterfactual explainers. The DisCERN algorithm
introduced in this paper is a case-based counter-factual explainer. Here
counterfactuals are formed by replacing feature values from a nearest unlike
neighbour (NUN) until an actionable change is observed. We show how widely
adopted feature relevance-based explainers (i.e. LIME, SHAP), can inform
DisCERN to identify the minimum subset of "actionable features". We demonstrate
our DisCERN algorithm on five datasets in a comparative study with the widely
used optimisation-based counterfactual approach DiCE. Our results demonstrate
that DisCERN is an effective strategy to minimise actionable changes necessary
to create good counterfactual explanations.
- Abstract(参考訳): 反事実的説明は、エンドユーザが機械学習の結果がより望ましい結果にどのように変わるかを理解するのに役立つ「行動可能な知識」に焦点を当てている。
この目的のためには、結果の変化に関連する入力依存を見つける必要がある。
意思決定のアウトプット変更を実行するために必要な機能変更の最小サブセットを特定することは、反事実的説明者にとって興味深い課題である。
本論文で導入された DisCERN アルゴリズムはケースベース対実説明器である。
ここでは、作用可能な変化が観測されるまで、特徴値を最も近い隣人(NUN)から置き換えることで、反事実を形成する。
機能関連性に基づく説明器(LIME, SHAP)がDisCERNに「動作可能な機能」の最小サブセットを特定することを通知できることを示す。
我々は,DisCERNアルゴリズムを5つのデータセット上で実証し,広く用いられている最適化に基づく対実的アプローチであるDiCEとの比較を行った。
以上の結果から, DisCERN は, 適切な対実的説明作成に必要な実行可能な変更を最小化するための効果的な戦略であることが示された。
関連論文リスト
- Using LLMs for Explaining Sets of Counterfactual Examples to Final Users [0.0]
自動意思決定シナリオでは、因果推論手法は基礎となるデータ生成プロセスを分析することができる。
カウンターファクトな例では、最小限の要素が変更される仮説的なシナリオを探求する。
本稿では,アクションの自然言語説明を生成するために,反事実を用いた新しい多段階パイプラインを提案する。
論文 参考訳(メタデータ) (2024-08-27T15:13:06Z) - Introducing User Feedback-based Counterfactual Explanations (UFCE) [49.1574468325115]
対実的説明(CE)は、XAIで理解可能な説明を生成するための有効な解決策として浮上している。
UFCEは、アクション可能な機能のサブセットで最小限の変更を決定するために、ユーザー制約を含めることができる。
UFCEは、textitproximity(英語版)、textitsparsity(英語版)、textitfeasibility(英語版)の2つのよく知られたCEメソッドより優れている。
論文 参考訳(メタデータ) (2024-02-26T20:09:44Z) - Generating robust counterfactual explanations [60.32214822437734]
カウンターファクトの質は、現実主義、行動可能性、妥当性、堅牢性など、いくつかの基準に依存する。
本稿では, 対実的入力変化に対するロバスト性に着目し, 対実的入力変化に対するロバスト性に着目した。
我々は,このトレードオフを効果的に管理し,ユーザに対して最小限の堅牢性を保証するとともに,ロバストなデファクトを生成する新しいフレームワークであるCROCOを提案する。
論文 参考訳(メタデータ) (2023-04-24T09:00:31Z) - Explaining Recommendation System Using Counterfactual Textual
Explanations [4.318555434063274]
エンドユーザーが何らかのアウトプットを生産する理由を理解すれば、システムへの信頼がより容易になる。
より説明可能な出力を生成する方法の1つは、反実的推論を使うことである。
論文 参考訳(メタデータ) (2023-03-14T06:45:28Z) - Active Learning for Abstractive Text Summarization [50.79416783266641]
本稿では,抽象テキスト要約におけるアクティブラーニングのための最初の効果的なクエリ戦略を提案する。
ALアノテーションにおける私たちの戦略は、ROUGEと一貫性スコアの点からモデル性能を向上させるのに役立ちます。
論文 参考訳(メタデータ) (2023-01-09T10:33:14Z) - Complementary Explanations for Effective In-Context Learning [77.83124315634386]
大規模言語モデル (LLM) は、説明のインプロンプトから学習する際、顕著な能力を示した。
この研究は、文脈内学習に説明が使用されるメカニズムをよりよく理解することを目的としている。
論文 参考訳(メタデータ) (2022-11-25T04:40:47Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Synthesizing explainable counterfactual policies for algorithmic
recourse with program synthesis [18.485744170172545]
ユーザ記述と因果グラフから説明可能な対応行動列を出力するプログラムを学習する。
合成および実世界のデータセットに対する実験的評価は、我々のアプローチが効果的な介入をいかに生み出すかを示す。
論文 参考訳(メタデータ) (2022-01-18T17:16:45Z) - Search Methods for Sufficient, Socially-Aligned Feature Importance
Explanations with In-Distribution Counterfactuals [72.00815192668193]
特徴重要度(FI)推定は一般的な説明形式であり、テスト時に特定の入力特徴を除去することによって生じるモデル信頼度の変化を計算し、評価することが一般的である。
FIに基づく説明の未探索次元についていくつかの考察を行い、この説明形式に対する概念的および実証的な改善を提供する。
論文 参考訳(メタデータ) (2021-06-01T20:36:48Z) - Towards Unifying Feature Attribution and Counterfactual Explanations:
Different Means to the Same End [17.226134854746267]
本稿では,一組の反実例から特徴帰属説明を生成する手法を提案する。
本報告では, 帰属に基づく説明の妥当性を, その必要性と充足性の観点から評価するために, 対実例をいかに活用するかを示す。
論文 参考訳(メタデータ) (2020-11-10T05:41:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。