論文の概要: GLOBE-CE: A Translation-Based Approach for Global Counterfactual
Explanations
- arxiv url: http://arxiv.org/abs/2305.17021v2
- Date: Sun, 17 Dec 2023 20:26:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-19 20:56:42.913416
- Title: GLOBE-CE: A Translation-Based Approach for Global Counterfactual
Explanations
- Title(参考訳): globe-ce:グローバル反事実説明のための翻訳に基づくアプローチ
- Authors: Dan Ley, Saumitra Mishra, Daniele Magazzeni
- Abstract要約: Global & Efficient Counterfactual Explanations (GLOBE-CE)は、現在の最先端技術に関連する信頼性とスケーラビリティの問題に取り組む柔軟なフレームワークである。
分類的特徴翻訳を数学的に解析し,その手法を応用した。
公開データセットとユーザスタディによる実験的評価は、GLOBE-CEが現在の最先端よりも大幅にパフォーマンスが向上していることを示している。
- 参考スコア(独自算出の注目度): 10.276136171459731
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Counterfactual explanations have been widely studied in explainability, with
a range of application dependent methods prominent in fairness, recourse and
model understanding. The major shortcoming associated with these methods,
however, is their inability to provide explanations beyond the local or
instance-level. While many works touch upon the notion of a global explanation,
typically suggesting to aggregate masses of local explanations in the hope of
ascertaining global properties, few provide frameworks that are both reliable
and computationally tractable. Meanwhile, practitioners are requesting more
efficient and interactive explainability tools. We take this opportunity to
propose Global & Efficient Counterfactual Explanations (GLOBE-CE), a flexible
framework that tackles the reliability and scalability issues associated with
current state-of-the-art, particularly on higher dimensional datasets and in
the presence of continuous features. Furthermore, we provide a unique
mathematical analysis of categorical feature translations, utilising it in our
method. Experimental evaluation with publicly available datasets and user
studies demonstrate that GLOBE-CE performs significantly better than the
current state-of-the-art across multiple metrics (e.g., speed, reliability).
- Abstract(参考訳): 対物的説明は、公正性、リコース、モデル理解に顕著な様々な応用依存手法を用いて、説明可能性において広く研究されてきた。
しかし、これらのメソッドに関連する主な欠点は、ローカルレベルやインスタンスレベルで説明できないことである。
多くの研究がグローバルな説明の概念に触れており、典型的にはグローバルな性質を確かめるために局所的な説明の大量を集約することを示唆しているが、信頼性と計算的に抽出可能なフレームワークを提供するものはほとんどない。
一方、実践者はより効率的でインタラクティブな説明ツールを求めている。
我々はこの機会を生かして,現在の最先端,特に高次元データセットや継続的機能の存在に伴う信頼性とスケーラビリティの問題に対処する,フレキシブルなフレームワークであるGLOBE-CE(Global & Efficient Counterfactual Explanations)を提案する。
さらに,分類的特徴翻訳のユニークな数学的解析を行い,本手法で活用する。
公開データセットとユーザスタディによる実験的評価では、GLOBE-CEは複数のメトリクス(例えば、速度、信頼性)にわたる現在の最先端よりもはるかに優れたパフォーマンスを示している。
関連論文リスト
- From Understanding to Utilization: A Survey on Explainability for Large
Language Models [27.295767173801426]
この調査は、Large Language Models (LLMs) における説明可能性の向上を示唆している。
主に、トレーニング済みの Transformer ベースの LLM に重点を置いています。
説明可能性の活用を考える際に、モデル編集、制御生成、モデル拡張に集中するいくつかの魅力的な方法を検討する。
論文 参考訳(メタデータ) (2024-01-23T16:09:53Z) - Sparsity-Guided Holistic Explanation for LLMs with Interpretable
Inference-Time Intervention [53.896974148579346]
大規模言語モデル(LLM)は、様々な自然言語処理領域において前例のないブレークスルーを達成した。
LLMの謎的なブラックボックスの性質は、透過的で説明可能なアプリケーションを妨げる、解釈可能性にとって重要な課題である。
本稿では,LLMの全体的解釈を提供することを目的として,スポーシティ誘導技術に係わる新しい方法論を提案する。
論文 参考訳(メタデータ) (2023-12-22T19:55:58Z) - Extracting Interpretable Local and Global Representations from Attention
on Time Series [0.135975510645475]
本稿では,局所的抽象化とグローバル表現を併用した2つのトランスフォーマーアテンションに基づく解釈可能性手法を提案する。
ローカルコンテキストとグローバルコンテキストを区別し、一般的な解釈オプションの両方に包括的なフレームワークを提供する。
論文 参考訳(メタデータ) (2023-09-16T00:51:49Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - Variational Distillation for Multi-View Learning [104.17551354374821]
我々は,多視点表現学習における2つの重要な特徴を利用するために,様々な情報ボトルネックを設計する。
厳密な理論的保証の下で,本手法は,観察とセマンティックラベルの内在的相関の把握を可能にする。
論文 参考訳(メタデータ) (2022-06-20T03:09:46Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Causal Reasoning Meets Visual Representation Learning: A Prospective
Study [117.08431221482638]
解釈可能性の欠如、堅牢性、分布外一般化が、既存の視覚モデルの課題となっている。
人間レベルのエージェントの強い推論能力にインスパイアされた近年では、因果推論パラダイムの開発に多大な努力が注がれている。
本稿では,この新興分野を包括的に概観し,注目し,議論を奨励し,新たな因果推論手法の開発の急激さを先導することを目的とする。
論文 参考訳(メタデータ) (2022-04-26T02:22:28Z) - Global Counterfactual Explanations: Investigations, Implementations and
Improvements [12.343333815270402]
Actionable Recourse Summaries (AReS)は、Recourseの世界で唯一知られている対実的な説明フレームワークである。
本稿では,Recourse における唯一の国際対実的説明フレームワークである AReS の実装と改善に焦点をあてる。
論文 参考訳(メタデータ) (2022-04-14T12:21:23Z) - AcME -- Accelerated Model-agnostic Explanations: Fast Whitening of the
Machine-Learning Black Box [1.7534486934148554]
解釈可能性のアプローチは、ユーザが待つことなく、実行可能な洞察を提供するべきです。
本稿では,グローバルレベルとローカルレベルの両方で特徴的重要性のスコアを迅速に提供する解釈可能性アプローチである,アクセレーションモデル非依存説明(AcME)を提案する。
AcMEは機能ランキングを計算しますが、機能値の変化がモデル予測にどのように影響するかを評価するために、What-if分析ツールも提供しています。
論文 参考訳(メタデータ) (2021-12-23T15:18:13Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z) - Model Agnostic Multilevel Explanations [31.831973884850147]
本稿では,典型的な局所的説明可能性法を前提として,マルチレベル説明木を構築するメタメソッドを提案する。
この木の葉は局所的な説明に対応し、根は大域的な説明に対応し、中間レベルは群データポイントの説明に対応する。
このようなマルチレベル構造は,データセット全体を特徴付ける説明をほとんど得られない,効果的なコミュニケーション形態でもある,と我々は主張する。
論文 参考訳(メタデータ) (2020-03-12T20:18:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。