論文の概要: On Computing Probabilistic Abductive Explanations
- arxiv url: http://arxiv.org/abs/2212.05990v1
- Date: Mon, 12 Dec 2022 15:47:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 15:26:52.705291
- Title: On Computing Probabilistic Abductive Explanations
- Title(参考訳): 確率的帰納的説明の計算について
- Authors: Yacine Izza, Xuanxiang Huang, Alexey Ignatiev, Nina Narodytska, Martin
C. Cooper and Joao Marques-Silva
- Abstract要約: 最も広く研究されているAI(XAI)アプローチは正しくない。
PI説明は重要な欠点も示しており、最も目に見えるものはおそらくその大きさである。
本稿では,多くの広く使用されている分類器に対して,関連する集合を計算するための実践的アプローチについて検討する。
- 参考スコア(独自算出の注目度): 30.325691263226968
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The most widely studied explainable AI (XAI) approaches are unsound. This is
the case with well-known model-agnostic explanation approaches, and it is also
the case with approaches based on saliency maps. One solution is to consider
intrinsic interpretability, which does not exhibit the drawback of unsoundness.
Unfortunately, intrinsic interpretability can display unwieldy explanation
redundancy. Formal explainability represents the alternative to these
non-rigorous approaches, with one example being PI-explanations. Unfortunately,
PI-explanations also exhibit important drawbacks, the most visible of which is
arguably their size. Recently, it has been observed that the (absolute) rigor
of PI-explanations can be traded off for a smaller explanation size, by
computing the so-called relevant sets. Given some positive {\delta}, a set S of
features is {\delta}-relevant if, when the features in S are fixed, the
probability of getting the target class exceeds {\delta}. However, even for
very simple classifiers, the complexity of computing relevant sets of features
is prohibitive, with the decision problem being NPPP-complete for circuit-based
classifiers. In contrast with earlier negative results, this paper investigates
practical approaches for computing relevant sets for a number of widely used
classifiers that include Decision Trees (DTs), Naive Bayes Classifiers (NBCs),
and several families of classifiers obtained from propositional languages.
Moreover, the paper shows that, in practice, and for these families of
classifiers, relevant sets are easy to compute. Furthermore, the experiments
confirm that succinct sets of relevant features can be obtained for the
families of classifiers considered.
- Abstract(参考訳): 最も広く研究されているAI(XAI)アプローチは正しくない。
これはよく知られたモデルに依存しない説明手法のケースであり、従順写像に基づくアプローチのケースでもある。
一つの解決策は、不明瞭さの欠点を示さない本質的な解釈可能性を考えることである。
不運なことに、本質的な解釈性は説明の冗長性を示すことができる。
形式的説明可能性(英語版)はこれらの非厳密なアプローチの代替であり、その一例がPI説明である。
残念なことに、PI-Explanationsは重要な欠点も示しており、最も目に見えるのはおそらくそのサイズである。
近年,PI-Explanationsの厳密な厳密な厳密さは,いわゆる関連する集合を計算することによって,より小さな説明サイズで取り除けることが観察されている。
ある正の {\delta} が与えられたとき、S の特徴が固定されたとき、対象のクラスを得る確率が {\delta} を超えるとき、S の集合 S は {\delta}-関連である。
しかし、非常に単純な分類器であっても、関連する特徴集合の計算の複雑さは禁じられ、回路ベースの分類器ではNPPP完全である。
従来の否定的な結果とは対照的に,決定木(DT),ネイブベイズ分類器(NBC),命題言語から得られたいくつかの分類器群など,広く使われている分類器の集合を計算するための実践的アプローチを検討する。
さらに,本論文では,これらの分類器の族に対して,関連する集合の計算が容易であることを示す。
さらに,検討した分類器群に対して,関連特徴の簡潔な集合が得られることを確認した。
関連論文リスト
- Bisimulation Learning [55.859538562698496]
我々は、大きな、潜在的に無限の状態空間を持つ状態遷移系の有限バイシミュレートを計算する。
提案手法は,実際に行われている他の最先端ツールよりも高速な検証結果が得られる。
論文 参考訳(メタデータ) (2024-05-24T17:11:27Z) - Understanding and Mitigating Classification Errors Through Interpretable
Token Patterns [58.91023283103762]
容易に解釈可能な用語でエラーを特徴付けることは、分類器が体系的なエラーを起こす傾向にあるかどうかを洞察する。
正しい予測と誤予測を区別するトークンのパターンを発見することを提案する。
提案手法であるPremiseが実際によく動作することを示す。
論文 参考訳(メタデータ) (2023-11-18T00:24:26Z) - Interpretability at Scale: Identifying Causal Mechanisms in Alpaca [62.65877150123775]
本研究では、Boundless DASを用いて、命令に従う間、大規模言語モデルにおける解釈可能な因果構造を効率的に探索する。
私たちの発見は、成長し、最も広くデプロイされている言語モデルの内部構造を忠実に理解するための第一歩です。
論文 参考訳(メタデータ) (2023-05-15T17:15:40Z) - Feature Necessity & Relevancy in ML Classifier Explanations [5.232306238197686]
機械学習(ML)モデルと予測が与えられた場合、説明は予測に十分な機能のセットとして定義することができる。
また、ある説明においてセンシティブな特徴が生じるのか、またはすべての説明において興味のない特徴が生じる必要があるのかを理解することも重要である。
論文 参考訳(メタデータ) (2022-10-27T12:12:45Z) - On Computing Relevant Features for Explaining NBCs [5.71097144710995]
XAI(Modelagnostic explainable AI)は誤った説明をすることができる。
PI説明は重要な欠点も示しており、最も目に見えるものはおそらくその大きさである。
本稿では,ネイブベイズ分類器(NBC)の関連機能集合の計算の複雑さについて検討し,実際は計算が容易であることを示す。
論文 参考訳(メタデータ) (2022-07-11T10:12:46Z) - Don't Explain Noise: Robust Counterfactuals for Randomized Ensembles [50.81061839052459]
我々は確率論的問題として、堅牢な対実的説明の生成を定式化する。
アンサンブルモデルのロバスト性とベース学習者のロバスト性との関係を示す。
本手法は, 反実的説明から初期観測までの距離をわずかに増加させるだけで, 高いロバスト性を実現する。
論文 参考訳(メタデータ) (2022-05-27T17:28:54Z) - On Deciding Feature Membership in Explanations of SDD & Related
Classifiers [0.685316573653194]
この論文は、幅広い分類器のクラスに対してSigmaP$に対して、特徴メンバシップ問題(FMP)が難しいことを示している。
本稿では,SDD(Sentential Decision Diagrams)と他の命題言語に代表される分類器の命題符号化を提案する。
論文 参考訳(メタデータ) (2022-02-15T16:38:53Z) - Search Methods for Sufficient, Socially-Aligned Feature Importance
Explanations with In-Distribution Counterfactuals [72.00815192668193]
特徴重要度(FI)推定は一般的な説明形式であり、テスト時に特定の入力特徴を除去することによって生じるモデル信頼度の変化を計算し、評価することが一般的である。
FIに基づく説明の未探索次元についていくつかの考察を行い、この説明形式に対する概念的および実証的な改善を提供する。
論文 参考訳(メタデータ) (2021-06-01T20:36:48Z) - Efficient Explanations With Relevant Sets [30.296628060841645]
本稿では,$delta$-relevant 集合の実用的限界に対処するための解について検討する。
$delta$-relevant 集合の部分集合の計算は NP であり、NP のオラクルへの多くの呼び出しで解ける。
論文 参考訳(メタデータ) (2021-06-01T14:57:58Z) - Discrete Reasoning Templates for Natural Language Understanding [79.07883990966077]
我々は,複雑な質問をより単純な質問に分解する手法を提案する。
事前定義された推論テンプレートの指示に従って最終回答を導出する。
我々のアプローチは、解釈可能でありながら最先端技術と競合し、監督をほとんど必要としないことを示す。
論文 参考訳(メタデータ) (2021-04-05T18:56:56Z) - Counterfactual Explanations for Oblique Decision Trees: Exact, Efficient
Algorithms [0.0]
我々は、ソース入力インスタンスにおける特徴を最小に調整して、与えられた分類の下で対象クラスに分類する問題である、反事実的説明を考える。
これは、トレーニングされたモデルをクエリし、決定を覆す可能性のあるアクションを提案する手段として、最近の関心事となっている。
論文 参考訳(メタデータ) (2021-03-01T16:04:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。