論文の概要: LIPEx -- Locally Interpretable Probabilistic Explanations -- To Look
Beyond The True Class
- arxiv url: http://arxiv.org/abs/2310.04856v1
- Date: Sat, 7 Oct 2023 15:31:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 15:08:49.574776
- Title: LIPEx -- Locally Interpretable Probabilistic Explanations -- To Look
Beyond The True Class
- Title(参考訳): lipex --ローカルに解釈可能な確率論的説明 -- が真のクラスを越えて見る
- Authors: Hongbo Zhu, Angelo Cangelosi, Procheta Sen and Anirbit Mukherjee
- Abstract要約: LIPEx (Locally Interpretable Probabilistic Explanation) による新しい摂動型多クラス説明フレームワークのインスタンス化
我々は、LIPExが広く使われている複雑な分類モデルによって出力される確率分布を局所的に複製するだけでなく、全ての特徴が各クラスにおいて重要と考えられる特徴が予測確率にどのように影響するかを洞察する。
- 参考スコア(独自算出の注目度): 17.12486200215929
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we instantiate a novel perturbation-based multi-class
explanation framework, LIPEx (Locally Interpretable Probabilistic Explanation).
We demonstrate that LIPEx not only locally replicates the probability
distributions output by the widely used complex classification models but also
provides insight into how every feature deemed to be important affects the
prediction probability for each of the possible classes. We achieve this by
defining the explanation as a matrix obtained via regression with respect to
the Hellinger distance in the space of probability distributions. Ablation
tests on text and image data, show that LIPEx-guided removal of important
features from the data causes more change in predictions for the underlying
model than similar tests on other saliency-based or feature importance-based
XAI methods. It is also shown that compared to LIME, LIPEx is much more data
efficient in terms of the number of perturbations needed for reliable
evaluation of the explanation.
- Abstract(参考訳): 本研究では,新しい摂動に基づく多クラス説明フレームワーク LIPEx (Locally Interpretable Probabilistic Explanation) をインスタンス化する。
我々は、LIPExが広く使われている複雑な分類モデルによって出力される確率分布を局所的に複製するだけでなく、全ての特徴がどのクラスに対して重要と考えられるかの知見を提供する。
確率分布の空間におけるヘルリンガー距離に対する回帰によって得られる行列として説明を定義することでこれを実現できる。
テキストと画像データに対するアブレーションテストは、LIPExがデータから重要な特徴を取り除いたことにより、他の唾液量ベースや特徴重要度ベースのXAIメソッドと同様のテストよりも、基礎モデルに対する予測がより大きく変化することを示している。
また、LIMEと比較して、LIPExは説明の信頼性評価に必要な摂動数の観点から、はるかにデータ効率が高いことが示されている。
関連論文リスト
- Graph-based Complexity for Causal Effect by Empirical Plug-in [56.14597641617531]
本稿では、因果効果クエリに対する経験的プラグイン推定の計算複雑性に焦点を当てる。
計算は、推定値のハイパーグラフに依存するため、データサイズにおいて、潜在的に線形な時間で効率的に行うことができることを示す。
論文 参考訳(メタデータ) (2024-11-15T07:42:01Z) - Estimating Causal Effects from Learned Causal Networks [56.14597641617531]
本稿では、離散可観測変数に対する因果影響クエリに応答する代替パラダイムを提案する。
観測データから直接因果ベイズネットワークとその共起潜伏変数を学習する。
本手法は, 推定手法よりも有効であることを示す。
論文 参考訳(メタデータ) (2024-08-26T08:39:09Z) - Collaborative Learning with Different Labeling Functions [7.228285747845779]
我々は、$n$のデータ分布ごとに正確な分類器を学習することを目的とした、協調型PAC学習の亜種について研究する。
データ分布がより弱い実現可能性の仮定を満たす場合、サンプル効率の学習は依然として可能であることを示す。
論文 参考訳(メタデータ) (2024-02-16T04:32:22Z) - Estimation of embedding vectors in high dimensions [10.55292041492388]
我々は、いくつかの「真」だが未知の埋め込みが存在する離散データに対する単純な確率モデルを考える。
このモデルでは、埋め込みは低ランク近似メッセージパッシング(AMP)法の変種によって学習できることが示されている。
提案手法は, 合成データと実テキストデータの両方のシミュレーションにより検証した。
論文 参考訳(メタデータ) (2023-12-12T23:41:59Z) - Supervised Feature Compression based on Counterfactual Analysis [3.2458225810390284]
本研究は,事前学習したブラックボックスモデルの重要な決定境界を検出するために,非現実的説明を活用することを目的としている。
離散化されたデータセットを使用して、ブラックボックスモデルに似た最適な決定木をトレーニングすることができるが、解釈可能でコンパクトである。
論文 参考訳(メタデータ) (2022-11-17T21:16:14Z) - Learning from aggregated data with a maximum entropy model [73.63512438583375]
我々は,観測されていない特徴分布を最大エントロピー仮説で近似することにより,ロジスティック回帰と類似した新しいモデルが,集約データからのみ学習されることを示す。
我々は、この方法で学習したモデルが、完全な非凝集データでトレーニングされたロジスティックモデルに匹敵するパフォーマンスを達成することができるという、いくつかの公開データセットに関する実証的な証拠を提示する。
論文 参考訳(メタデータ) (2022-10-05T09:17:27Z) - Statistical Efficiency of Score Matching: The View from Isoperimetry [96.65637602827942]
本研究では, スコアマッチングの統計的効率と推定される分布の等尺性との間に, 密接な関係を示す。
これらの結果はサンプル状態と有限状態の両方で定式化する。
論文 参考訳(メタデータ) (2022-10-03T06:09:01Z) - Analyzing Explainer Robustness via Probabilistic Lipschitzness of Prediction Functions [3.5199856477763722]
我々は、ロバストネスの特定の側面、すなわち、同様のデータ入力に対して同様の説明をするべきであることに焦点を当てる。
予測関数の正確性に類似した説明器の正確性を導入して定義することにより、この概念を定式化する。
論文 参考訳(メタデータ) (2022-06-24T19:43:33Z) - Pseudo-Spherical Contrastive Divergence [119.28384561517292]
エネルギーベースモデルの最大学習確率を一般化するために,擬球面コントラスト分散(PS-CD)を提案する。
PS-CDは難解な分割関数を避け、学習目的の一般化されたファミリーを提供する。
論文 参考訳(メタデータ) (2021-11-01T09:17:15Z) - On the Tractability of SHAP Explanations [40.829629145230356]
SHAPの説明は、説明可能なAIの一般的な機能帰属メカニズムである。
SHAP説明の計算の複雑さは、モデルが期待する値の計算の複雑さと同じであることを示す。
完全に分解された分布を超えて、SHAP説明の計算は、非常に単純な設定で既に難解であることが示される。
論文 参考訳(メタデータ) (2020-09-18T05:48:15Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。