論文の概要: An Extension of LIME with Improvement of Interpretability and Fidelity
- arxiv url: http://arxiv.org/abs/2004.12277v1
- Date: Sun, 26 Apr 2020 02:54:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 12:52:50.449456
- Title: An Extension of LIME with Improvement of Interpretability and Fidelity
- Title(参考訳): LIMEの拡張による解釈性と忠実度の向上
- Authors: Sheng Shi, Yangzhou Du and Wei Fan
- Abstract要約: 特徴サンプリングと近似(LEDSNA)を用いた局所的説明
本稿では,特徴サンプリングと近似(LEDSNA)を用いた局所記述(Local Explanation)と呼ばれる,高解釈性と高忠実な局所説明手法を提案する。
- 参考スコア(独自算出の注目度): 4.874445626403491
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While deep learning makes significant achievements in Artificial Intelligence
(AI), the lack of transparency has limited its broad application in various
vertical domains. Explainability is not only a gateway between AI and real
world, but also a powerful feature to detect flaw of the models and bias of the
data. Local Interpretable Model-agnostic Explanation (LIME) is a
widely-accepted technique that explains the prediction of any classifier
faithfully by learning an interpretable model locally around the predicted
instance. As an extension of LIME, this paper proposes an high-interpretability
and high-fidelity local explanation method, known as Local Explanation using
feature Dependency Sampling and Nonlinear Approximation (LEDSNA). Given an
instance being explained, LEDSNA enhances interpretability by feature sampling
with intrinsic dependency. Besides, LEDSNA improves the local explanation
fidelity by approximating nonlinear boundary of local decision. We evaluate our
method with classification tasks in both image domain and text domain.
Experiments show that LEDSNA's explanation of the back-box model achieves much
better performance than original LIME in terms of interpretability and
fidelity.
- Abstract(参考訳): ディープラーニングは人工知能(AI)において大きな成果を上げているが、透明性の欠如は、様々な垂直領域における幅広い応用を制限している。
説明可能性(Explainability)は、AIと現実世界のゲートウェイであるだけでなく、モデルの欠陥やデータのバイアスを検出する強力な機能でもある。
Local Interpretable Model-Agnostic Explanation (LIME) は、予測されたインスタンスの周辺で解釈可能なモデルをローカルに学習することによって、任意の分類器の予測を忠実に説明する、広く受け入れられた手法である。
LIMEの拡張として,機能依存サンプリングと非線形近似(LEDSNA)を用いた局所説明法(Local Explanation)と呼ばれる,高解釈性と高忠実な局所説明法を提案する。
説明されているインスタンスを前提として、LEDSNAは固有の依存関係を持つ機能サンプリングによって解釈可能性を高める。
さらに、LEDSNAは局所的決定の非線形境界を近似することにより局所的説明忠実性を改善する。
画像領域とテキスト領域の両方の分類タスクを用いて本手法の評価を行う。
実験により、LEDSNAのバックボックスモデルの説明は、解釈可能性と忠実性の観点から、元のLIMEよりもはるかに優れた性能が得られることが示された。
関連論文リスト
- Entropy-Regularized Token-Level Policy Optimization for Large Language
Models [76.02428537504323]
大規模言語モデル(LLM)は、対話的な意思決定タスクにおいてインテリジェントなエージェントとして期待されている。
本稿では,トークンレベルでのLLMの最適化に適したエントロピー拡張RL法である,エントロピー正規化トークンレベル最適化(ETPO)を導入する。
その結果,ETPO は CodeLlama-7B モデルで有効な性能向上を実現し,RLHF から受け継いだ変種 PPO ベースラインを超越していることがわかった。
論文 参考訳(メタデータ) (2024-02-09T07:45:26Z) - Sparsity-Guided Holistic Explanation for LLMs with Interpretable
Inference-Time Intervention [53.896974148579346]
大規模言語モデル(LLM)は、様々な自然言語処理領域において前例のないブレークスルーを達成した。
LLMの謎的なブラックボックスの性質は、透過的で説明可能なアプリケーションを妨げる、解釈可能性にとって重要な課題である。
本稿では,LLMの全体的解釈を提供することを目的として,スポーシティ誘導技術に係わる新しい方法論を提案する。
論文 参考訳(メタデータ) (2023-12-22T19:55:58Z) - AS-XAI: Self-supervised Automatic Semantic Interpretation for CNN [5.42467030980398]
本稿では,自動意味解釈人工知能(AS-XAI)フレームワークを提案する。
モデル決定のグローバルな意味解釈には、透過的な埋め込み意味抽出空間と行中心主成分分析(PCA)を用いる。
提案手法は, 流通圏内における共通意味論的解釈を含む, 広範囲な実践的応用を提供する。
論文 参考訳(メタデータ) (2023-12-02T10:06:54Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Locally Aggregated Feature Attribution on Natural Language Model
Understanding [12.233103741197334]
Locally Aggregated Feature Attribution (LAFA) は、NLPモデルのための新しい勾配に基づく特徴属性法である。
あいまいな参照トークンに頼る代わりに、言語モデル埋め込みから派生した類似参照テキストを集約することで勾配を円滑にする。
評価のために、公開データセット上でのエンティティ認識やセンチメント分析を含む異なるNLPタスクの実験も設計する。
論文 参考訳(メタデータ) (2022-04-22T18:59:27Z) - Distributionally Robust Recurrent Decoders with Random Network
Distillation [93.10261573696788]
本稿では,自動回帰言語モデルが推論中にOODコンテキストを無視できるように,ランダムネットワーク蒸留を用いたOOD検出に基づく手法を提案する。
提案手法をGRUアーキテクチャに適用し,複数の言語モデリング(LM)データセットの改善を実証する。
論文 参考訳(メタデータ) (2021-10-25T19:26:29Z) - Explaining the Deep Natural Language Processing by Mining Textual
Interpretable Features [3.819533618886143]
T-EBAnOは、深層自然言語モデルに適した、予測ローカルでクラスベースのモデル-言語的説明戦略である。
自動意思決定プロセスの背後にある理由について、客観的で、人間可読で、ドメイン固有の評価を提供する。
論文 参考訳(メタデータ) (2021-06-12T06:25:09Z) - Bridging the Gap Between Clean Data Training and Real-World Inference
for Spoken Language Understanding [76.89426311082927]
既存のモデルはクリーンデータに基づいてトレーニングされ、クリーンデータトレーニングと現実世界の推論の間にtextitgapが発生する。
本稿では,良質なサンプルと低品質のサンプルの両方が類似ベクトル空間に埋め込まれた領域適応法を提案する。
広く使用されているデータセット、スニップス、および大規模な社内データセット(1000万のトレーニング例)に関する実験では、この方法は実世界の(騒々しい)コーパスのベースラインモデルを上回るだけでなく、堅牢性、すなわち、騒々しい環境下で高品質の結果を生み出すことを実証しています。
論文 参考訳(メタデータ) (2021-04-13T17:54:33Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z) - Explaining Deep Learning Models for Structured Data using Layer-Wise
Relevance Propagation [0.0]
LRP(Layer-wise Relevance)は、コンピュータビジョンにおける深層モデルのための確立された説明可能性技術であり、入力画像の直感的な可読熱マップを提供する。
本稿では,LIME(Local Interpretable Model-Agnostic Ex-planations)とSHAP(Shapley Additive Explanations)の従来の説明可能性概念よりも,LRPが有効であることを示す。
論文 参考訳(メタデータ) (2020-11-26T18:34:21Z) - A Modified Perturbed Sampling Method for Local Interpretable
Model-agnostic Explanation [35.281127405430674]
LIME(Local Interpretable Model-Agnostic Explanation)は、任意の分類器の予測を忠実に説明する手法である。
本稿では,LIME (MPS-LIME) のための改良型摂動サンプリング操作を提案する。
画像分類において、MPS-LIMEはスーパーピクセル画像を非方向グラフに変換する。
論文 参考訳(メタデータ) (2020-02-18T09:03:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。