論文の概要: On Computing Relevant Features for Explaining NBCs
- arxiv url: http://arxiv.org/abs/2207.04748v1
- Date: Mon, 11 Jul 2022 10:12:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-12 22:06:35.064052
- Title: On Computing Relevant Features for Explaining NBCs
- Title(参考訳): NBCの解説にまつわる関連機能について
- Authors: Yacine Izza and Joao Marques-Silva
- Abstract要約: XAI(Modelagnostic explainable AI)は誤った説明をすることができる。
PI説明は重要な欠点も示しており、最も目に見えるものはおそらくその大きさである。
本稿では,ネイブベイズ分類器(NBC)の関連機能集合の計算の複雑さについて検討し,実際は計算が容易であることを示す。
- 参考スコア(独自算出の注目度): 5.71097144710995
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the progress observed with model-agnostic explainable AI (XAI), it is
the case that model-agnostic XAI can produce incorrect explanations. One
alternative are the so-called formal approaches to XAI, that include
PI-explanations. Unfortunately, PI-explanations also exhibit important
drawbacks, the most visible of which is arguably their size. The computation of
relevant features serves to trade off probabilistic precision for the number of
features in an explanation. However, even for very simple classifiers, the
complexity of computing sets of relevant features is prohibitive. This paper
investigates the computation of relevant sets for Naive Bayes Classifiers
(NBCs), and shows that, in practice, these are easy to compute. Furthermore,
the experiments confirm that succinct sets of relevant features can be obtained
with NBCs.
- Abstract(参考訳): モデルに依存しない説明可能なAI(XAI)の進歩にもかかわらず、モデルに依存しないXAIは誤った説明をすることができる。
もう一つの選択肢は、PI説明を含むXAIの形式的アプローチである。
残念なことに、PI-Explanationsは重要な欠点も示しており、最も目に見えるのはおそらくそのサイズである。
関連する特徴の計算は、説明における特徴数に対する確率的精度のトレードオフとなる。
しかし、非常に単純な分類器であっても、関連する機能の計算セットの複雑さは禁じられている。
本稿では,naive bayes分類器(nbcs)に関連する集合の計算について検討し,実際に計算が容易であることを示す。
さらに, NBCでは, 関連特徴の簡潔なセットが得られることを確認した。
関連論文リスト
- Even-if Explanations: Formal Foundations, Priorities and Complexity [19.03510917663375]
線形モデルとツリーモデルの両方がニューラルネットワークよりも厳密に解釈可能であることを示す。
ユーザが好みに基づいて説明をパーソナライズすることのできる、嗜好に基づくフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-17T11:38:58Z) - Tractable Bounding of Counterfactual Queries by Knowledge Compilation [51.47174989680976]
本稿では, パール構造因果モデルにおいて, 因果関係などの部分的特定可能なクエリのバウンダリングの問題について議論する。
最近提案された反復EMスキームは初期化パラメータをサンプリングしてそれらの境界を内部近似する。
シンボルパラメータを実際の値に置き換えた回路構造を,単一のシンボル知識コンパイルによって得られることを示す。
論文 参考訳(メタデータ) (2023-10-05T07:10:40Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - From Robustness to Explainability and Back Again [0.685316573653194]
本稿では,形式的説明可能性のスケーラビリティの限界に対処し,形式的説明性を計算するための新しいアルゴリズムを提案する。
提案アルゴリズムは、その代わりに多数のロバストネスクエリに応答して説明を計算し、そのようなクエリの数は、機能数に対して最も線形である。
提案手法の有効性を検証する実験を行った。
論文 参考訳(メタデータ) (2023-06-05T17:21:05Z) - Balancing Explainability-Accuracy of Complex Models [8.402048778245165]
我々は,コリレーションの影響に基づき,複雑なモデルに対する新しいアプローチを提案する。
独立機能と依存機能の両方のシナリオに対するアプローチを提案する。
従属特徴に対する提案手法の複雑さの上限を提供する。
論文 参考訳(メタデータ) (2023-05-23T14:20:38Z) - Logical Message Passing Networks with One-hop Inference on Atomic
Formulas [57.47174363091452]
本稿では,ニューラルネットワーク演算子から知識グラフの埋め込みを分解する,複雑な問合せ応答のためのフレームワークを提案する。
クエリグラフの上に、局所的な原子式上のワンホップ推論とグローバル論理的推論を結びつける論理メッセージパッシングニューラルネットワーク(LMPNN)を提案する。
我々のアプローチは、最先端のニューラルCQAモデルをもたらす。
論文 参考訳(メタデータ) (2023-01-21T02:34:06Z) - On Computing Probabilistic Abductive Explanations [30.325691263226968]
最も広く研究されているAI(XAI)アプローチは正しくない。
PI説明は重要な欠点も示しており、最も目に見えるものはおそらくその大きさである。
本稿では,多くの広く使用されている分類器に対して,関連する集合を計算するための実践的アプローチについて検討する。
論文 参考訳(メタデータ) (2022-12-12T15:47:10Z) - Inducing Gaussian Process Networks [80.40892394020797]
本稿では,特徴空間と誘導点を同時に学習するシンプルなフレームワークであるGaussian Process Network (IGN)を提案する。
特に誘導点は特徴空間で直接学習され、複雑な構造化領域のシームレスな表現を可能にする。
実世界のデータセットに対する実験結果から,IGNは最先端の手法よりも大幅に進歩していることを示す。
論文 参考訳(メタデータ) (2022-04-21T05:27:09Z) - On the Tractability of SHAP Explanations [40.829629145230356]
SHAPの説明は、説明可能なAIの一般的な機能帰属メカニズムである。
SHAP説明の計算の複雑さは、モデルが期待する値の計算の複雑さと同じであることを示す。
完全に分解された分布を超えて、SHAP説明の計算は、非常に単純な設定で既に難解であることが示される。
論文 参考訳(メタデータ) (2020-09-18T05:48:15Z) - Structural Causal Models Are (Solvable by) Credal Networks [70.45873402967297]
因果推論は、干潟網の更新のための標準的なアルゴリズムによって得ることができる。
この貢献は, 干潟ネットワークによる構造因果モデルを表現するための体系的なアプローチと見なされるべきである。
実験により, 実規模問題における因果推論には, クレーダルネットワークの近似アルゴリズムがすぐに利用できることがわかった。
論文 参考訳(メタデータ) (2020-08-02T11:19:36Z) - A Theory of Usable Information Under Computational Constraints [103.5901638681034]
本稿では,複雑なシステムにおける情報推論のための新しいフレームワークを提案する。
我々の基礎はシャノンの情報理論の変分拡張に基づいている。
計算制約を組み込むことで,データから$mathcalV$-informationを確実に推定できることを示す。
論文 参考訳(メタデータ) (2020-02-25T06:09:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。