論文の概要: On Computing Relevant Features for Explaining NBCs
- arxiv url: http://arxiv.org/abs/2207.04748v1
- Date: Mon, 11 Jul 2022 10:12:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-12 22:06:35.064052
- Title: On Computing Relevant Features for Explaining NBCs
- Title(参考訳): NBCの解説にまつわる関連機能について
- Authors: Yacine Izza and Joao Marques-Silva
- Abstract要約: XAI(Modelagnostic explainable AI)は誤った説明をすることができる。
PI説明は重要な欠点も示しており、最も目に見えるものはおそらくその大きさである。
本稿では,ネイブベイズ分類器(NBC)の関連機能集合の計算の複雑さについて検討し,実際は計算が容易であることを示す。
- 参考スコア(独自算出の注目度): 5.71097144710995
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the progress observed with model-agnostic explainable AI (XAI), it is
the case that model-agnostic XAI can produce incorrect explanations. One
alternative are the so-called formal approaches to XAI, that include
PI-explanations. Unfortunately, PI-explanations also exhibit important
drawbacks, the most visible of which is arguably their size. The computation of
relevant features serves to trade off probabilistic precision for the number of
features in an explanation. However, even for very simple classifiers, the
complexity of computing sets of relevant features is prohibitive. This paper
investigates the computation of relevant sets for Naive Bayes Classifiers
(NBCs), and shows that, in practice, these are easy to compute. Furthermore,
the experiments confirm that succinct sets of relevant features can be obtained
with NBCs.
- Abstract(参考訳): モデルに依存しない説明可能なAI(XAI)の進歩にもかかわらず、モデルに依存しないXAIは誤った説明をすることができる。
もう一つの選択肢は、PI説明を含むXAIの形式的アプローチである。
残念なことに、PI-Explanationsは重要な欠点も示しており、最も目に見えるのはおそらくそのサイズである。
関連する特徴の計算は、説明における特徴数に対する確率的精度のトレードオフとなる。
しかし、非常に単純な分類器であっても、関連する機能の計算セットの複雑さは禁じられている。
本稿では,naive bayes分類器(nbcs)に関連する集合の計算について検討し,実際に計算が容易であることを示す。
さらに, NBCでは, 関連特徴の簡潔なセットが得られることを確認した。
関連論文リスト
- XForecast: Evaluating Natural Language Explanations for Time Series Forecasting [72.57427992446698]
時系列予測は、特に正確な予測に依存するステークホルダーにとって、意思決定を支援する。
伝統的に説明可能なAI(XAI)メソッドは、機能や時間的重要性を基盤とするものであり、専門家の知識を必要とすることが多い。
時系列データにおける複雑な因果関係のため,予測NLEの評価は困難である。
論文 参考訳(メタデータ) (2024-10-18T05:16:39Z) - Incremental XAI: Memorable Understanding of AI with Incremental Explanations [13.460427339680168]
本稿では、人間の認知能力を活用して知識を蓄積し、より詳細な説明をインクリメンタルに受け取り、より詳細な説明を提供することを提案する。
我々はインクリメンタルXAIを導入し、一般的なインスタンスと非典型インスタンスの説明を自動的に分割する。
記憶力は、基本因子を再利用し、非典型例で示される因子の数を減らすことで改善される。
論文 参考訳(メタデータ) (2024-04-10T04:38:17Z) - Even-if Explanations: Formal Foundations, Priorities and Complexity [18.126159829450028]
線形モデルとツリーモデルの両方がニューラルネットワークよりも厳密に解釈可能であることを示す。
ユーザが好みに基づいて説明をパーソナライズすることのできる、嗜好に基づくフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-17T11:38:58Z) - Tractable Bounding of Counterfactual Queries by Knowledge Compilation [51.47174989680976]
本稿では, パール構造因果モデルにおいて, 因果関係などの部分的特定可能なクエリのバウンダリングの問題について議論する。
最近提案された反復EMスキームは初期化パラメータをサンプリングしてそれらの境界を内部近似する。
シンボルパラメータを実際の値に置き換えた回路構造を,単一のシンボル知識コンパイルによって得られることを示す。
論文 参考訳(メタデータ) (2023-10-05T07:10:40Z) - From Robustness to Explainability and Back Again [0.685316573653194]
本稿では,形式的説明可能性のスケーラビリティの限界に対処し,形式的説明性を計算するための新しいアルゴリズムを提案する。
提案アルゴリズムは、その代わりに多数のロバストネスクエリに応答して説明を計算し、そのようなクエリの数は、機能数に対して最も線形である。
提案手法の有効性を検証する実験を行った。
論文 参考訳(メタデータ) (2023-06-05T17:21:05Z) - Logical Message Passing Networks with One-hop Inference on Atomic
Formulas [57.47174363091452]
本稿では,ニューラルネットワーク演算子から知識グラフの埋め込みを分解する,複雑な問合せ応答のためのフレームワークを提案する。
クエリグラフの上に、局所的な原子式上のワンホップ推論とグローバル論理的推論を結びつける論理メッセージパッシングニューラルネットワーク(LMPNN)を提案する。
我々のアプローチは、最先端のニューラルCQAモデルをもたらす。
論文 参考訳(メタデータ) (2023-01-21T02:34:06Z) - On Computing Probabilistic Abductive Explanations [30.325691263226968]
最も広く研究されているAI(XAI)アプローチは正しくない。
PI説明は重要な欠点も示しており、最も目に見えるものはおそらくその大きさである。
本稿では,多くの広く使用されている分類器に対して,関連する集合を計算するための実践的アプローチについて検討する。
論文 参考訳(メタデータ) (2022-12-12T15:47:10Z) - Don't Explain Noise: Robust Counterfactuals for Randomized Ensembles [50.81061839052459]
我々は確率論的問題として、堅牢な対実的説明の生成を定式化する。
アンサンブルモデルのロバスト性とベース学習者のロバスト性との関係を示す。
本手法は, 反実的説明から初期観測までの距離をわずかに増加させるだけで, 高いロバスト性を実現する。
論文 参考訳(メタデータ) (2022-05-27T17:28:54Z) - On the Tractability of SHAP Explanations [40.829629145230356]
SHAPの説明は、説明可能なAIの一般的な機能帰属メカニズムである。
SHAP説明の計算の複雑さは、モデルが期待する値の計算の複雑さと同じであることを示す。
完全に分解された分布を超えて、SHAP説明の計算は、非常に単純な設定で既に難解であることが示される。
論文 参考訳(メタデータ) (2020-09-18T05:48:15Z) - Structural Causal Models Are (Solvable by) Credal Networks [70.45873402967297]
因果推論は、干潟網の更新のための標準的なアルゴリズムによって得ることができる。
この貢献は, 干潟ネットワークによる構造因果モデルを表現するための体系的なアプローチと見なされるべきである。
実験により, 実規模問題における因果推論には, クレーダルネットワークの近似アルゴリズムがすぐに利用できることがわかった。
論文 参考訳(メタデータ) (2020-08-02T11:19:36Z) - A Theory of Usable Information Under Computational Constraints [103.5901638681034]
本稿では,複雑なシステムにおける情報推論のための新しいフレームワークを提案する。
我々の基礎はシャノンの情報理論の変分拡張に基づいている。
計算制約を組み込むことで,データから$mathcalV$-informationを確実に推定できることを示す。
論文 参考訳(メタデータ) (2020-02-25T06:09:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。