論文の概要: Anytime Approximate Formal Feature Attribution
- arxiv url: http://arxiv.org/abs/2312.06973v1
- Date: Tue, 12 Dec 2023 04:24:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-13 17:23:27.738592
- Title: Anytime Approximate Formal Feature Attribution
- Title(参考訳): 随時近似形式的特徴属性
- Authors: Jinqiang Yu, Graham Farr, Alexey Ignatiev, Peter J. Stuckey
- Abstract要約: この決定が下されたとき、この決定に寄与した入力機能は何ですか?
ヒューリスティックなXAIアプローチは品質保証の欠如に悩まされ、しばしばシェープ値の近似を試みる。
最近の選択肢は、形式的特徴属性(FFA)と呼ばれるもので、その特徴を含む形式的帰納的説明(AXp)の断片として機能の重要性を定義するものである。
- 参考スコア(独自算出の注目度): 33.195028992904355
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Widespread use of artificial intelligence (AI) algorithms and machine
learning (ML) models on the one hand and a number of crucial issues pertaining
to them warrant the need for explainable artificial intelligence (XAI). A key
explainability question is: given this decision was made, what are the input
features which contributed to the decision? Although a range of XAI approaches
exist to tackle this problem, most of them have significant limitations.
Heuristic XAI approaches suffer from the lack of quality guarantees, and often
try to approximate Shapley values, which is not the same as explaining which
features contribute to a decision. A recent alternative is so-called formal
feature attribution (FFA), which defines feature importance as the fraction of
formal abductive explanations (AXp's) containing the given feature. This
measures feature importance from the view of formally reasoning about the
model's behavior. It is challenging to compute FFA using its definition because
that involves counting AXp's, although one can approximate it. Based on these
results, this paper makes several contributions. First, it gives compelling
evidence that computing FFA is intractable, even if the set of contrastive
formal explanations (CXp's) is provided, by proving that the problem is
#P-hard. Second, by using the duality between AXp's and CXp's, it proposes an
efficient heuristic to switch from CXp enumeration to AXp enumeration
on-the-fly resulting in an adaptive explanation enumeration algorithm
effectively approximating FFA in an anytime fashion. Finally, experimental
results obtained on a range of widely used datasets demonstrate the
effectiveness of the proposed FFA approximation approach in terms of the error
of FFA approximation as well as the number of explanations computed and their
diversity given a fixed time limit.
- Abstract(参考訳): 人工知能(AI)アルゴリズムと機械学習(ML)モデルの幅広い使用と、それらに関連する重要な問題により、説明可能な人工知能(XAI)の必要性が保証されている。
この決定がなされたことにより、その決定に寄与した入力機能は何ですか?
この問題に対処するために様々なXAIアプローチが存在するが、そのほとんどは重大な制限がある。
ヒューリスティックなXAIアプローチは品質保証の欠如に悩まされ、しばしばシェープ値の近似を試みる。
最近の選択肢は、形式的特徴属性(FFA)と呼ばれるもので、その特徴を含む形式的帰納的説明(AXp)の断片として機能の重要性を定義するものである。
この測定は、モデルの振る舞いを正式に推論する観点から重要視される。
ffa の定義を使って計算することは困難であり、これは axp を数えることを伴うが、近似できるからである。
これらの結果をもとに,本稿ではいくつかの貢献を行う。
第一に、計算FFAは、たとえコントラスト的な形式的説明(CXp)の集合が提供されても、その問題が#Pハードであることを証明することで、魅力的な証拠を与える。
第二に、AXp と CXp の双対性を利用して、CXp の列挙から AXp の列挙に切り替える効率的なヒューリスティックを提案し、任意の方法で FFA を効果的に近似する適応的説明列挙アルゴリズムを提案する。
最後に, 広範に使用されるデータセットを用いて得られた実験結果から, ffa近似法の有効性を, ffa近似の誤差, 計算された説明数, および一定時間制限による多様性の観点から示している。
関連論文リスト
- Spurious Feature Eraser: Stabilizing Test-Time Adaptation for Vision-Language Foundation Model [86.9619638550683]
視覚言語基礎モデルは、画像とテキストのペアデータに拡張性があるため、多数の下流タスクで顕著な成功を収めている。
しかし、これらのモデルは、決定ショートカットの結果、きめ細かな画像分類などの下流タスクに適用した場合に重大な制限を呈する」。
論文 参考訳(メタデータ) (2024-03-01T09:01:53Z) - Local Universal Explainer (LUX) -- a rule-based explainer with factual, counterfactual and visual explanations [7.673339435080445]
Local Universal Explainer (LUX) は、現実的、対実的、視覚的な説明を生成できるルールベースの説明器である。
これは、決定木アルゴリズムの修正版に基づいており、斜め分割とSHAPのような重要なXAIメソッドとの統合を可能にする。
提案手法を実データと合成データセットで検証し, LORE, EXPLAN, Anchorなどの最先端のルールベースの説明器と比較した。
論文 参考訳(メタデータ) (2023-10-23T13:04:15Z) - Ensemble of Counterfactual Explainers [17.88531216690148]
本稿では,弱い説明者を増やす反事実的説明者のアンサンブルを提案し,そのような特性のサブセットのみを提供する。
このアンサンブルは、インスタンスと機能のサンプルで弱い説明器を実行し、多様性駆動の選択関数を利用して結果を組み合わせる。
論文 参考訳(メタデータ) (2023-08-29T10:21:50Z) - On Formal Feature Attribution and Its Approximation [37.3078859524959]
本稿では,形式的説明列挙に基づく特徴属性に対する形式的XAIの応用法を提案する。
この問題の実際的な複雑さを考慮し, 正確なFFAを近似する効率的な手法を提案する。
論文 参考訳(メタデータ) (2023-07-07T04:20:36Z) - From Robustness to Explainability and Back Again [0.685316573653194]
本稿では,形式的説明可能性のスケーラビリティの限界に対処し,形式的説明性を計算するための新しいアルゴリズムを提案する。
提案アルゴリズムは、その代わりに多数のロバストネスクエリに応答して説明を計算し、そのようなクエリの数は、機能数に対して最も線形である。
提案手法の有効性を検証する実験を行った。
論文 参考訳(メタデータ) (2023-06-05T17:21:05Z) - Interpretability at Scale: Identifying Causal Mechanisms in Alpaca [62.65877150123775]
本研究では、Boundless DASを用いて、命令に従う間、大規模言語モデルにおける解釈可能な因果構造を効率的に探索する。
私たちの発見は、成長し、最も広くデプロイされている言語モデルの内部構造を忠実に理解するための第一歩です。
論文 参考訳(メタデータ) (2023-05-15T17:15:40Z) - On Computing Probabilistic Abductive Explanations [30.325691263226968]
最も広く研究されているAI(XAI)アプローチは正しくない。
PI説明は重要な欠点も示しており、最も目に見えるものはおそらくその大きさである。
本稿では,多くの広く使用されている分類器に対して,関連する集合を計算するための実践的アプローチについて検討する。
論文 参考訳(メタデータ) (2022-12-12T15:47:10Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Error-based Knockoffs Inference for Controlled Feature Selection [49.99321384855201]
本手法では, ノックオフ特徴量, エラーベース特徴重要度統計量, ステップダウン手順を一体化して, エラーベースのノックオフ推定手法を提案する。
提案手法では回帰モデルを指定する必要はなく,理論的保証で特徴選択を処理できる。
論文 参考訳(メタデータ) (2022-03-09T01:55:59Z) - Removing Bias in Multi-modal Classifiers: Regularization by Maximizing
Functional Entropies [88.0813215220342]
いくつかのモダリティは、他のものよりも分類結果に容易に寄与することができる。
機能的エントロピーと機能的フィッシャー情報とを結合した対数ソボレフの不等式に基づく手法を開発した。
VQA-CPv2 と SocialIQ の2つの挑戦的マルチモーダルデータセットに対して,より均一にモダリティを活用しながら,最先端の結果を得る。
論文 参考訳(メタデータ) (2020-10-21T07:40:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。