論文の概要: An Extension of LIME with Improvement of Interpretability and Fidelity
- arxiv url: http://arxiv.org/abs/2004.12277v1
- Date: Sun, 26 Apr 2020 02:54:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 12:52:50.449456
- Title: An Extension of LIME with Improvement of Interpretability and Fidelity
- Title(参考訳): LIMEの拡張による解釈性と忠実度の向上
- Authors: Sheng Shi, Yangzhou Du and Wei Fan
- Abstract要約: 特徴サンプリングと近似(LEDSNA)を用いた局所的説明
本稿では,特徴サンプリングと近似(LEDSNA)を用いた局所記述(Local Explanation)と呼ばれる,高解釈性と高忠実な局所説明手法を提案する。
- 参考スコア(独自算出の注目度): 4.874445626403491
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While deep learning makes significant achievements in Artificial Intelligence
(AI), the lack of transparency has limited its broad application in various
vertical domains. Explainability is not only a gateway between AI and real
world, but also a powerful feature to detect flaw of the models and bias of the
data. Local Interpretable Model-agnostic Explanation (LIME) is a
widely-accepted technique that explains the prediction of any classifier
faithfully by learning an interpretable model locally around the predicted
instance. As an extension of LIME, this paper proposes an high-interpretability
and high-fidelity local explanation method, known as Local Explanation using
feature Dependency Sampling and Nonlinear Approximation (LEDSNA). Given an
instance being explained, LEDSNA enhances interpretability by feature sampling
with intrinsic dependency. Besides, LEDSNA improves the local explanation
fidelity by approximating nonlinear boundary of local decision. We evaluate our
method with classification tasks in both image domain and text domain.
Experiments show that LEDSNA's explanation of the back-box model achieves much
better performance than original LIME in terms of interpretability and
fidelity.
- Abstract(参考訳): ディープラーニングは人工知能(AI)において大きな成果を上げているが、透明性の欠如は、様々な垂直領域における幅広い応用を制限している。
説明可能性(Explainability)は、AIと現実世界のゲートウェイであるだけでなく、モデルの欠陥やデータのバイアスを検出する強力な機能でもある。
Local Interpretable Model-Agnostic Explanation (LIME) は、予測されたインスタンスの周辺で解釈可能なモデルをローカルに学習することによって、任意の分類器の予測を忠実に説明する、広く受け入れられた手法である。
LIMEの拡張として,機能依存サンプリングと非線形近似(LEDSNA)を用いた局所説明法(Local Explanation)と呼ばれる,高解釈性と高忠実な局所説明法を提案する。
説明されているインスタンスを前提として、LEDSNAは固有の依存関係を持つ機能サンプリングによって解釈可能性を高める。
さらに、LEDSNAは局所的決定の非線形境界を近似することにより局所的説明忠実性を改善する。
画像領域とテキスト領域の両方の分類タスクを用いて本手法の評価を行う。
実験により、LEDSNAのバックボックスモデルの説明は、解釈可能性と忠実性の観点から、元のLIMEよりもはるかに優れた性能が得られることが示された。
関連論文リスト
- Enhancing adversarial robustness in Natural Language Inference using explanations [41.46494686136601]
自然言語推論(NLI)の未探索課題に注目点を当てた。
我々は、広範囲な実験を通じて、モデルに依存しない防衛戦略として、自然言語説明の使用を検証した。
本研究では,広範に使用されている言語生成指標と人間の知覚との相関について検討し,それらが堅牢なNLIモデルへのプロキシとして機能するようにした。
論文 参考訳(メタデータ) (2024-09-11T17:09:49Z) - R-SFLLM: Jamming Resilient Framework for Split Federated Learning with Large Language Models [83.77114091471822]
Split Federated Learning (SFL)は、分散機械学習(ML)における計算効率のパラダイムである。
SFLの課題は、特に無線チャネル上に展開する場合、送信されたモデルパラメータが相手のジャミングに感受性を持つことである。
これは、言語理解に不可欠である大規模言語モデル(LLM)における単語埋め込みパラメータに対して特に顕著である。
無線ネットワーク上でのLLM(R-SFLLM)を用いたレジリエンスSFLのための物理層フレームワークを開発した。
論文 参考訳(メタデータ) (2024-07-16T12:21:29Z) - Embedding Trajectory for Out-of-Distribution Detection in Mathematical Reasoning [50.84938730450622]
数理推論におけるOOD検出にトラジェクトリボラティリティを用いたトラジェクトリベースのTVスコアを提案する。
本手法は, 数学的推論シナリオ下でのGLM上での従来のアルゴリズムよりも優れる。
提案手法は,複数選択質問などの出力空間における高密度特徴を持つアプリケーションに拡張することができる。
論文 参考訳(メタデータ) (2024-05-22T22:22:25Z) - Entropy-Regularized Token-Level Policy Optimization for Language Agent Reinforcement [67.1393112206885]
大規模言語モデル(LLM)は、対話的な意思決定タスクにおいてインテリジェントなエージェントとして期待されている。
本稿では,トークンレベルでのLLMの最適化に適したエントロピー拡張RL法である,エントロピー正規化トークンレベル最適化(ETPO)を導入する。
我々は,データサイエンスコード生成を多段階対話型タスクのシリーズとしてモデル化したシミュレーション環境におけるETPOの有効性を評価する。
論文 参考訳(メタデータ) (2024-02-09T07:45:26Z) - AS-XAI: Self-supervised Automatic Semantic Interpretation for CNN [5.42467030980398]
本稿では,自動意味解釈人工知能(AS-XAI)フレームワークを提案する。
モデル決定のグローバルな意味解釈には、透過的な埋め込み意味抽出空間と行中心主成分分析(PCA)を用いる。
提案手法は, 流通圏内における共通意味論的解釈を含む, 広範囲な実践的応用を提供する。
論文 参考訳(メタデータ) (2023-12-02T10:06:54Z) - Locally Aggregated Feature Attribution on Natural Language Model
Understanding [12.233103741197334]
Locally Aggregated Feature Attribution (LAFA) は、NLPモデルのための新しい勾配に基づく特徴属性法である。
あいまいな参照トークンに頼る代わりに、言語モデル埋め込みから派生した類似参照テキストを集約することで勾配を円滑にする。
評価のために、公開データセット上でのエンティティ認識やセンチメント分析を含む異なるNLPタスクの実験も設計する。
論文 参考訳(メタデータ) (2022-04-22T18:59:27Z) - Distributionally Robust Recurrent Decoders with Random Network
Distillation [93.10261573696788]
本稿では,自動回帰言語モデルが推論中にOODコンテキストを無視できるように,ランダムネットワーク蒸留を用いたOOD検出に基づく手法を提案する。
提案手法をGRUアーキテクチャに適用し,複数の言語モデリング(LM)データセットの改善を実証する。
論文 参考訳(メタデータ) (2021-10-25T19:26:29Z) - Explaining the Deep Natural Language Processing by Mining Textual
Interpretable Features [3.819533618886143]
T-EBAnOは、深層自然言語モデルに適した、予測ローカルでクラスベースのモデル-言語的説明戦略である。
自動意思決定プロセスの背後にある理由について、客観的で、人間可読で、ドメイン固有の評価を提供する。
論文 参考訳(メタデータ) (2021-06-12T06:25:09Z) - Bridging the Gap Between Clean Data Training and Real-World Inference
for Spoken Language Understanding [76.89426311082927]
既存のモデルはクリーンデータに基づいてトレーニングされ、クリーンデータトレーニングと現実世界の推論の間にtextitgapが発生する。
本稿では,良質なサンプルと低品質のサンプルの両方が類似ベクトル空間に埋め込まれた領域適応法を提案する。
広く使用されているデータセット、スニップス、および大規模な社内データセット(1000万のトレーニング例)に関する実験では、この方法は実世界の(騒々しい)コーパスのベースラインモデルを上回るだけでなく、堅牢性、すなわち、騒々しい環境下で高品質の結果を生み出すことを実証しています。
論文 参考訳(メタデータ) (2021-04-13T17:54:33Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z) - A Modified Perturbed Sampling Method for Local Interpretable
Model-agnostic Explanation [35.281127405430674]
LIME(Local Interpretable Model-Agnostic Explanation)は、任意の分類器の予測を忠実に説明する手法である。
本稿では,LIME (MPS-LIME) のための改良型摂動サンプリング操作を提案する。
画像分類において、MPS-LIMEはスーパーピクセル画像を非方向グラフに変換する。
論文 参考訳(メタデータ) (2020-02-18T09:03:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。