論文の概要: An Analysis of LIME for Text Data
- arxiv url: http://arxiv.org/abs/2010.12487v2
- Date: Sun, 25 Jul 2021 08:43:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 21:22:46.099121
- Title: An Analysis of LIME for Text Data
- Title(参考訳): テキストデータにおけるLIMEの分析
- Authors: Dina Mardaoui and Damien Garreau
- Abstract要約: テキストデータに対するLIMEの最初の理論的解析を行う。
その結果,LIMEは単純なモデルに対して有意義な説明を提供することがわかった。
- 参考スコア(独自算出の注目度): 12.843340232167266
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Text data are increasingly handled in an automated fashion by machine
learning algorithms. But the models handling these data are not always
well-understood due to their complexity and are more and more often referred to
as "black-boxes." Interpretability methods aim to explain how these models
operate. Among them, LIME has become one of the most popular in recent years.
However, it comes without theoretical guarantees: even for simple models, we
are not sure that LIME behaves accurately. In this paper, we provide a first
theoretical analysis of LIME for text data. As a consequence of our theoretical
findings, we show that LIME indeed provides meaningful explanations for simple
models, namely decision trees and linear models.
- Abstract(参考訳): テキストデータは機械学習アルゴリズムによって自動的に処理されるようになっている。
しかし、これらのデータを扱うモデルは複雑さのために必ずしもよく理解されておらず、より頻繁に「ブラックボックス」と呼ばれる。
解釈可能性法は、これらのモデルがどのように動作するかを説明することを目的としている。
中でも近年、LIMEは最も人気がある1つとなっている。
単純なモデルであっても、LIMEが正確に振る舞うかどうかはわかりません。
本稿では,テキストデータに対するLIMEの理論的解析について述べる。
その結果,LIMEは決定木や線形モデルといった単純なモデルに対して有意義な説明を提供することがわかった。
関連論文リスト
- LLMs for XAI: Future Directions for Explaining Explanations [50.87311607612179]
既存のXAIアルゴリズムを用いて計算した説明の精細化に着目する。
最初の実験とユーザスタディは、LLMがXAIの解釈可能性とユーザビリティを高めるための有望な方法を提供することを示唆している。
論文 参考訳(メタデータ) (2024-05-09T19:17:47Z) - Can LLMs Separate Instructions From Data? And What Do We Even Mean By That? [60.50127555651554]
大規模言語モデル(LLM)は、多くの実用的なアプリケーションにおいて印象的な結果を示すが、基本的な安全性機能は欠如している。
これにより、間接的なプロンプトインジェクションのような操作に脆弱になり、一般に安全クリティカルなタスクには適さない。
モデル出力から計算可能な命令データ分離の形式的尺度と経験的変量を導入する。
論文 参考訳(メタデータ) (2024-03-11T15:48:56Z) - Evaluating and Explaining Large Language Models for Code Using Syntactic
Structures [74.93762031957883]
本稿では,コード用大規模言語モデルに特有の説明可能性手法であるASTxplainerを紹介する。
その中核にあるASTxplainerは、トークン予測をASTノードに整合させる自動メソッドを提供する。
私たちは、最も人気のあるGitHubプロジェクトのキュレートデータセットを使用して、コード用の12の人気のあるLLMに対して、実証的な評価を行います。
論文 参考訳(メタデータ) (2023-08-07T18:50:57Z) - Interpretable Medical Diagnostics with Structured Data Extraction by
Large Language Models [59.89454513692417]
タブラルデータはしばしばテキストに隠され、特に医学的診断報告に使用される。
本稿では,TEMED-LLM と呼ばれるテキスト医療報告から構造化表状データを抽出する手法を提案する。
本手法は,医学診断における最先端のテキスト分類モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-08T09:12:28Z) - BELLA: Black box model Explanations by Local Linear Approximations [10.05944106581306]
我々は、回帰ブラックボックスモデルの個々の予測を説明するために、決定論的モデルに依存しないポストホックアプローチであるBELLAを提案する。
BELLAは特徴空間で訓練された線形モデルという形で説明を提供する。
BELLAは事実と反事実の両方を説明することができる。
論文 参考訳(メタデータ) (2023-05-18T21:22:23Z) - Interpretability at Scale: Identifying Causal Mechanisms in Alpaca [62.65877150123775]
本研究では、Boundless DASを用いて、命令に従う間、大規模言語モデルにおける解釈可能な因果構造を効率的に探索する。
私たちの発見は、成長し、最も広くデプロイされている言語モデルの内部構造を忠実に理解するための第一歩です。
論文 参考訳(メタデータ) (2023-05-15T17:15:40Z) - Interpretable Mixture of Experts [71.55701784196253]
Interpretable Mixture of Experts (IME)は本質的に解釈可能なモデリングフレームワークである。
IMEは単一の解釈可能なモデルよりも正確であることが示され、既存の最先端のDeep Neural Networks(DNN)と正確に比較できる。
IMEの説明は、ユーザスタディを通じて一般的に使われているポストホックな説明法と比較される。
論文 参考訳(メタデータ) (2022-06-05T06:40:15Z) - Using Decision Tree as Local Interpretable Model in Autoencoder-based
LIME [0.76146285961466]
本稿では、ALIMEと呼ばれる局所的解釈可能性のためのオートエンコーダに基づくアプローチの修正版を提案する。
本稿では,線形モデルの代わりに決定木を解釈可能なモデルとして用いた新しい手法を提案する。
ALIMEと比較して、実験は安定性と局所忠実度に有意な結果を示し、解釈可能性にも改善された。
論文 参考訳(メタデータ) (2022-04-07T09:39:02Z) - What does LIME really see in images? [4.18804572788063]
LIMEはおそらく最も人気のあるInterpretabilityメソッドの1つである。
生成した例の数が多ければ, LIME の説明は限界説明を中心に集中することを示す。
本研究は,基本形状検出器と線形モデルについてさらに述べる。
論文 参考訳(メタデータ) (2021-02-11T23:18:53Z) - How can I choose an explainer? An Application-grounded Evaluation of
Post-hoc Explanations [2.7708222692419735]
説明は意思決定タスクに対する実際の影響に基づいて評価されることはめったにない。
本研究は,エンドユーザーに対して異なるレベルの情報を提供することによる影響を分離するアプリケーショングラウンド評価手法であるXAI Testを提案する。
強い統計的分析を用いて、一般的な説明者は、望まれるよりも悪い影響を持つことを示す。
論文 参考訳(メタデータ) (2021-01-21T18:15:13Z) - Explaining the Explainer: A First Theoretical Analysis of LIME [23.988618287393837]
LIME (Local Interpretable Model-Agnostic Explanation)。
説明すべき関数が線型であるとき、解釈可能なモデルの係数に対する閉形式式を導出する。
分析の結果、パラメータの選択肢が乏しいため、LIMEは重要な機能を見逃す可能性があることが判明した。
論文 参考訳(メタデータ) (2020-01-10T13:51:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。