論文の概要: BayLIME: Bayesian Local Interpretable Model-Agnostic Explanations
- arxiv url: http://arxiv.org/abs/2012.03058v4
- Date: Thu, 20 May 2021 07:46:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-22 16:09:09.886115
- Title: BayLIME: Bayesian Local Interpretable Model-Agnostic Explanations
- Title(参考訳): BayLIME: Bayesian Local Interpretable Model-Agnostic Explanations
- Authors: Xingyu Zhao, Wei Huang, Xiaowei Huang, Valentin Robu, David Flynn
- Abstract要約: BayLIMEは、事前の知識とベイズ推論を利用して、1つの予測の繰り返しの説明において一貫性を向上させる。
BayLIMEは、最先端技術(LIME、SHAP、GradCAM)よりも説明の正確性が高い。
- 参考スコア(独自算出の注目度): 11.932259831293901
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Given the pressing need for assuring algorithmic transparency, Explainable AI
(XAI) has emerged as one of the key areas of AI research. In this paper, we
develop a novel Bayesian extension to the LIME framework, one of the most
widely used approaches in XAI -- which we call BayLIME. Compared to LIME,
BayLIME exploits prior knowledge and Bayesian reasoning to improve both the
consistency in repeated explanations of a single prediction and the robustness
to kernel settings. BayLIME also exhibits better explanation fidelity than the
state-of-the-art (LIME, SHAP and GradCAM) by its ability to integrate prior
knowledge from, e.g., a variety of other XAI techniques, as well as
verification and validation (V&V) methods. We demonstrate the desirable
properties of BayLIME through both theoretical analysis and extensive
experiments.
- Abstract(参考訳): アルゴリズムの透明性を確保する必要性が高まる中、説明可能なAI(XAI)がAI研究の重要な領域の1つとして登場した。
本稿では,XAI において最も広く利用されているアプローチのひとつである LIME フレームワークに対するベイズ的拡張を開発し,これを BayLIME と呼ぶ。
LIMEと比較して、BayLIMEは1つの予測の繰り返しの説明における一貫性とカーネル設定に対する堅牢性の両方を改善するために、事前の知識とベイズ推論を利用する。
BayLIMEは最先端技術(LIME、SHAP、GradCAM)よりも、例えば、様々なXAI技術から事前の知識を統合する能力や、検証と検証(V&V)の手法により、説明の忠実さが向上している。
理論解析と広範な実験により,ベイライムの望ましい特性を示す。
関連論文リスト
- SIDU-TXT: An XAI Algorithm for NLP with a Holistic Assessment Approach [14.928572140620245]
画像に基づく分類において、正統領域全体を局所化する能力に優れる「相似性差と特異性」(SIDU)XAI法をテキストデータに拡張する。
拡張されたSIDU-TXTは、ブラックボックスモデルから特徴活性化マップを使用して、粒度の細かい単語ベースのヒートマップを生成する。
映画レビューデータセットの感情分析タスクにおいて,SIDU-TXTは機能的評価と人為的評価の両方において優れていることがわかった。
論文 参考訳(メタデータ) (2024-02-05T14:29:54Z) - Assessing Fidelity in XAI post-hoc techniques: A Comparative Study with
Ground Truth Explanations Datasets [0.0]
入力への出力情報のバックプロパゲーションに基づくXAI手法により精度と信頼性が向上する。
バックプロパゲーション法は、よりノイズの多いサリエンシマップを生成する傾向がある。
発見はXAI法の進歩に重要な意味を持つ。
論文 参考訳(メタデータ) (2023-11-03T14:57:24Z) - Faithful Explanations of Black-box NLP Models Using LLM-generated
Counterfactuals [67.64770842323966]
NLPシステムの予測に関する因果的説明は、安全性を確保し、信頼を確立するために不可欠である。
既存の手法は、しばしばモデル予測を効果的または効率的に説明できない。
本稿では, 対物近似(CF)の2つの手法を提案する。
論文 参考訳(メタデータ) (2023-10-01T07:31:04Z) - Theoretical Behavior of XAI Methods in the Presence of Suppressor
Variables [0.8602553195689513]
近年,「説明可能な人工知能(XAI)」のコミュニティは,モデル「複雑性」と「解釈可能性」のギャップを埋めるための膨大な手法を生み出している。
本研究のアプローチの大部分は, 相関雑音の存在下での非クラス関連抑制機能に非ゼロの重要性が寄与すると考えられる。
論文 参考訳(メタデータ) (2023-06-02T11:41:19Z) - Finding the right XAI method -- A Guide for the Evaluation and Ranking
of Explainable AI Methods in Climate Science [0.0]
我々は、気候研究の文脈でXAI評価を導入し、異なる所望の説明特性を評価する。
XAI法は, ランダム化を犠牲にしながら, 統合的グラディエント, 階層的関連性伝播, 入力グラディエントがかなりの堅牢性, 忠実性, 複雑さを示すことがわかった。
特に、SmoothGradやIntegrated Gradientsのような入力摂動を用いた説明は、以前の主張に反して、堅牢性と忠実性を改善しない。
論文 参考訳(メタデータ) (2023-03-01T16:54:48Z) - CALIME: Causality-Aware Local Interpretable Model-Agnostic Explanations [9.339341973173804]
本稿では,XAI手法に因果知識を統合することで,信頼性を高め,ユーザが説明の質を評価することを支援することに焦点を当てる。
本稿では、入力インスタンスの周辺で生成されたデータに因果関係を明示的にエンコードして説明する、広く使われている局所的およびモデルに依存しない説明器の新たな拡張を提案する。
論文 参考訳(メタデータ) (2022-12-10T10:12:27Z) - Bayesian Learning for Neural Networks: an algorithmic survey [95.42181254494287]
この自己完結型調査は、ベイズ学習ニューラルネットワークの原理とアルゴリズムを読者に紹介する。
アクセシブルで実践的な視点からこのトピックを紹介します。
論文 参考訳(メタデータ) (2022-11-21T21:36:58Z) - INTERACTION: A Generative XAI Framework for Natural Language Inference
Explanations [58.062003028768636]
現在のXAIアプローチは、ひとつの説明を提供することにのみ焦点をあてています。
本稿では、生成型XAIフレームワーク、InterACTION(explaIn aNd predicT thEn queRy with contextuAl CondiTional variational autO-eNcoder)を提案する。
提案するフレームワークは,説明とラベル予測の2つのステップ,および(ステップ2)異種証拠生成の2つのステップで説明を行う。
論文 参考訳(メタデータ) (2022-09-02T13:52:39Z) - Quasi Black-Box Variational Inference with Natural Gradients for
Bayesian Learning [84.90242084523565]
複素モデルにおけるベイズ学習に適した最適化アルゴリズムを開発した。
我々のアプローチは、モデル固有導出に制限のある効率的なトレーニングのための一般的なブラックボックスフレームワーク内の自然な勾配更新に依存している。
論文 参考訳(メタデータ) (2022-05-23T18:54:27Z) - KAT: A Knowledge Augmented Transformer for Vision-and-Language [56.716531169609915]
我々は、OK-VQAのオープンドメインマルチモーダルタスクにおいて、最先端の強力な結果をもたらす新しいモデルである知識拡張トランスフォーマー(KAT)を提案する。
提案手法は,エンド・ツー・エンドのエンコーダ・デコーダアーキテクチャにおいて暗黙的かつ明示的な知識を統合しつつ,回答生成時に両知識源を共同で推論する。
我々の分析では、モデル予測の解釈可能性の向上に、明示的な知識統合のさらなる利点が見られる。
論文 参考訳(メタデータ) (2021-12-16T04:37:10Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。