論文の概要: BayLIME: Bayesian Local Interpretable Model-Agnostic Explanations
- arxiv url: http://arxiv.org/abs/2012.03058v4
- Date: Thu, 20 May 2021 07:46:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-22 16:09:09.886115
- Title: BayLIME: Bayesian Local Interpretable Model-Agnostic Explanations
- Title(参考訳): BayLIME: Bayesian Local Interpretable Model-Agnostic Explanations
- Authors: Xingyu Zhao, Wei Huang, Xiaowei Huang, Valentin Robu, David Flynn
- Abstract要約: BayLIMEは、事前の知識とベイズ推論を利用して、1つの予測の繰り返しの説明において一貫性を向上させる。
BayLIMEは、最先端技術(LIME、SHAP、GradCAM)よりも説明の正確性が高い。
- 参考スコア(独自算出の注目度): 11.932259831293901
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Given the pressing need for assuring algorithmic transparency, Explainable AI
(XAI) has emerged as one of the key areas of AI research. In this paper, we
develop a novel Bayesian extension to the LIME framework, one of the most
widely used approaches in XAI -- which we call BayLIME. Compared to LIME,
BayLIME exploits prior knowledge and Bayesian reasoning to improve both the
consistency in repeated explanations of a single prediction and the robustness
to kernel settings. BayLIME also exhibits better explanation fidelity than the
state-of-the-art (LIME, SHAP and GradCAM) by its ability to integrate prior
knowledge from, e.g., a variety of other XAI techniques, as well as
verification and validation (V&V) methods. We demonstrate the desirable
properties of BayLIME through both theoretical analysis and extensive
experiments.
- Abstract(参考訳): アルゴリズムの透明性を確保する必要性が高まる中、説明可能なAI(XAI)がAI研究の重要な領域の1つとして登場した。
本稿では,XAI において最も広く利用されているアプローチのひとつである LIME フレームワークに対するベイズ的拡張を開発し,これを BayLIME と呼ぶ。
LIMEと比較して、BayLIMEは1つの予測の繰り返しの説明における一貫性とカーネル設定に対する堅牢性の両方を改善するために、事前の知識とベイズ推論を利用する。
BayLIMEは最先端技術(LIME、SHAP、GradCAM)よりも、例えば、様々なXAI技術から事前の知識を統合する能力や、検証と検証(V&V)の手法により、説明の忠実さが向上している。
理論解析と広範な実験により,ベイライムの望ましい特性を示す。
関連論文リスト
- Info-CELS: Informative Saliency Map Guided Counterfactual Explanation [1.25828876338076]
新たな対実的説明モデルCELSが導入された。
CELSは、インスタンスの興味を引いたサリエンシマップを学習し、学習したサリエンシマップによってガイドされた反ファクトな説明を生成する。
CELSを基盤とした拡張されたアプローチを提案する。
論文 参考訳(メタデータ) (2024-10-27T18:12:02Z) - Can you trust your explanations? A robustness test for feature attribution methods [42.36530107262305]
説明可能なAI(XAI)の分野は急速に成長しているが、その技術の使用は時々予期せぬ結果をもたらした。
多様体仮説とアンサンブルアプローチの活用が、ロバスト性の詳細な解析にどのように役立つかを示す。
論文 参考訳(メタデータ) (2024-06-20T14:17:57Z) - Overlap Number of Balls Model-Agnostic CounterFactuals (ONB-MACF): A Data-Morphology-based Counterfactual Generation Method for Trustworthy Artificial Intelligence [15.415120542032547]
XAIはAIシステムをより理解しやすく信頼性の高いものにしようとしている。
本研究は,データ形態学戦略の価値を解析し,反実的説明を生成する。
ボールのオーバーラップ数(Overlap Number of Balls Model-Agnostic CounterFactuals,ONB-MACF)法を導入している。
論文 参考訳(メタデータ) (2024-05-20T18:51:42Z) - Solving the enigma: Deriving optimal explanations of deep networks [3.9584068556746246]
本稿では,ディープネットワークの説明可能性を高めるための新しいフレームワークを提案する。
本フレームワークは,確立したXAI手法の様々な説明を統合し,非説明を用いて最適な説明を構築する。
以上の結果から,特定基準に基づく最適説明が導出可能であることが示唆された。
論文 参考訳(メタデータ) (2024-05-16T11:49:08Z) - Assessing Fidelity in XAI post-hoc techniques: A Comparative Study with
Ground Truth Explanations Datasets [0.0]
入力への出力情報のバックプロパゲーションに基づくXAI手法により精度と信頼性が向上する。
バックプロパゲーション法は、よりノイズの多いサリエンシマップを生成する傾向がある。
発見はXAI法の進歩に重要な意味を持つ。
論文 参考訳(メタデータ) (2023-11-03T14:57:24Z) - Faithful Explanations of Black-box NLP Models Using LLM-generated
Counterfactuals [67.64770842323966]
NLPシステムの予測に関する因果的説明は、安全性を確保し、信頼を確立するために不可欠である。
既存の手法は、しばしばモデル予測を効果的または効率的に説明できない。
本稿では, 対物近似(CF)の2つの手法を提案する。
論文 参考訳(メタデータ) (2023-10-01T07:31:04Z) - Bayesian Learning for Neural Networks: an algorithmic survey [95.42181254494287]
この自己完結型調査は、ベイズ学習ニューラルネットワークの原理とアルゴリズムを読者に紹介する。
アクセシブルで実践的な視点からこのトピックを紹介します。
論文 参考訳(メタデータ) (2022-11-21T21:36:58Z) - INTERACTION: A Generative XAI Framework for Natural Language Inference
Explanations [58.062003028768636]
現在のXAIアプローチは、ひとつの説明を提供することにのみ焦点をあてています。
本稿では、生成型XAIフレームワーク、InterACTION(explaIn aNd predicT thEn queRy with contextuAl CondiTional variational autO-eNcoder)を提案する。
提案するフレームワークは,説明とラベル予測の2つのステップ,および(ステップ2)異種証拠生成の2つのステップで説明を行う。
論文 参考訳(メタデータ) (2022-09-02T13:52:39Z) - Quasi Black-Box Variational Inference with Natural Gradients for
Bayesian Learning [84.90242084523565]
複素モデルにおけるベイズ学習に適した最適化アルゴリズムを開発した。
我々のアプローチは、モデル固有導出に制限のある効率的なトレーニングのための一般的なブラックボックスフレームワーク内の自然な勾配更新に依存している。
論文 参考訳(メタデータ) (2022-05-23T18:54:27Z) - KAT: A Knowledge Augmented Transformer for Vision-and-Language [56.716531169609915]
我々は、OK-VQAのオープンドメインマルチモーダルタスクにおいて、最先端の強力な結果をもたらす新しいモデルである知識拡張トランスフォーマー(KAT)を提案する。
提案手法は,エンド・ツー・エンドのエンコーダ・デコーダアーキテクチャにおいて暗黙的かつ明示的な知識を統合しつつ,回答生成時に両知識源を共同で推論する。
我々の分析では、モデル予測の解釈可能性の向上に、明示的な知識統合のさらなる利点が見られる。
論文 参考訳(メタデータ) (2021-12-16T04:37:10Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。