論文の概要: Explaining the Explainer: A First Theoretical Analysis of LIME
- arxiv url: http://arxiv.org/abs/2001.03447v2
- Date: Mon, 13 Jan 2020 13:09:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-12 22:46:07.786744
- Title: Explaining the Explainer: A First Theoretical Analysis of LIME
- Title(参考訳): 説明者の説明: LIMEに関する最初の理論的分析
- Authors: Damien Garreau, Ulrike von Luxburg
- Abstract要約: LIME (Local Interpretable Model-Agnostic Explanation)。
説明すべき関数が線型であるとき、解釈可能なモデルの係数に対する閉形式式を導出する。
分析の結果、パラメータの選択肢が乏しいため、LIMEは重要な機能を見逃す可能性があることが判明した。
- 参考スコア(独自算出の注目度): 23.988618287393837
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning is used more and more often for sensitive applications,
sometimes replacing humans in critical decision-making processes. As such,
interpretability of these algorithms is a pressing need. One popular algorithm
to provide interpretability is LIME (Local Interpretable Model-Agnostic
Explanation). In this paper, we provide the first theoretical analysis of LIME.
We derive closed-form expressions for the coefficients of the interpretable
model when the function to explain is linear. The good news is that these
coefficients are proportional to the gradient of the function to explain: LIME
indeed discovers meaningful features. However, our analysis also reveals that
poor choices of parameters can lead LIME to miss important features.
- Abstract(参考訳): 機械学習は、繊細なアプリケーションに頻繁に使われ、時には人間を重要な意思決定プロセスに置き換える。
したがって、これらのアルゴリズムの解釈性は差し迫ったニーズである。
解釈可能性を提供するアルゴリズムとして LIME (Local Interpretable Model-Agnostic Explanation) がある。
本稿では,LIMEに関する最初の理論的解析を行う。
説明すべき関数が線形であるとき、解釈可能なモデルの係数の閉形式表現を導出する。
良いニュースは、これらの係数が関数の勾配に比例して説明できることである。
しかし、分析の結果、パラメータの選択肢が乏しいため、LIMEは重要な機能を見逃す可能性があることが判明した。
関連論文リスト
- Interpretability at Scale: Identifying Causal Mechanisms in Alpaca [62.65877150123775]
本研究では、Boundless DASを用いて、命令に従う間、大規模言語モデルにおける解釈可能な因果構造を効率的に探索する。
私たちの発見は、成長し、最も広くデプロイされている言語モデルの内部構造を忠実に理解するための第一歩です。
論文 参考訳(メタデータ) (2023-05-15T17:15:40Z) - On the Benefits of Large Learning Rates for Kernel Methods [110.03020563291788]
本稿では,カーネル手法のコンテキストにおいて,現象を正確に特徴付けることができることを示す。
分離可能なヒルベルト空間における2次対象の最小化を考慮し、早期停止の場合、学習速度の選択が得られた解のスペクトル分解に影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2022-02-28T13:01:04Z) - Locally Interpretable Model Agnostic Explanations using Gaussian
Processes [2.9189409618561966]
LIME(Local Interpretable Model-Agnostic Explanations)は、単一インスタンスの予測を説明する一般的なテクニックである。
局所的解釈可能なモデルのガウス過程(GP)に基づくバリエーションを提案する。
提案手法は,LIMEに比べてはるかに少ないサンプルを用いて忠実な説明を生成可能であることを示す。
論文 参考訳(メタデータ) (2021-08-16T05:49:01Z) - What does LIME really see in images? [4.18804572788063]
LIMEはおそらく最も人気のあるInterpretabilityメソッドの1つである。
生成した例の数が多ければ, LIME の説明は限界説明を中心に集中することを示す。
本研究は,基本形状検出器と線形モデルについてさらに述べる。
論文 参考訳(メタデータ) (2021-02-11T23:18:53Z) - Learning outside the Black-Box: The pursuit of interpretable models [78.32475359554395]
本稿では,任意の連続ブラックボックス関数の連続的大域的解釈を生成するアルゴリズムを提案する。
我々の解釈は、その芸術の以前の状態から飛躍的な進歩を表している。
論文 参考訳(メタデータ) (2020-11-17T12:39:44Z) - An Analysis of LIME for Text Data [12.843340232167266]
テキストデータに対するLIMEの最初の理論的解析を行う。
その結果,LIMEは単純なモデルに対して有意義な説明を提供することがわかった。
論文 参考訳(メタデータ) (2020-10-23T15:40:13Z) - Looking Deeper into Tabular LIME [23.988618287393837]
表データの場合, LIME のデフォルト実装に関する理論的解析を行う。
線形関数に対して、LIMEは、説明すべき関数の係数に比例する説明を提供するのに望ましい性質を持つことを示す。
分割型回帰器の場合、LIMEは望ましくない人工物を生成し、誤解を招くような説明を提供する。
論文 参考訳(メタデータ) (2020-08-25T15:10:57Z) - OptiLIME: Optimized LIME Explanations for Diagnostic Computer Algorithms [2.570261777174546]
LIME(Local Interpretable Model-Agnostic Explanations)は、機械学習(ML)モデルの解釈可能性を実現する一般的な手法である。
LIMEは様々な領域に広がっているが、その不安定性は大きな欠点の1つである。
既定の従順性を維持しつつ,安定性を最大化する枠組みを提案する。
論文 参考訳(メタデータ) (2020-06-10T08:10:37Z) - Evaluating Explainable AI: Which Algorithmic Explanations Help Users
Predict Model Behavior? [97.77183117452235]
我々は、モデル解釈性に対するアルゴリズム的説明の影響を分離するために、人体テストを実施している。
方法の有効性の明確な証拠はごく少数にみえる。
以上の結果から,説明がシミュラビリティにどのように影響するかの信頼性と包括的評価が得られた。
論文 参考訳(メタデータ) (2020-05-04T20:35:17Z) - Invariant Rationalization [84.1861516092232]
典型的な合理化基準、すなわち最大相互情報(MMI)は、合理性のみに基づいて予測性能を最大化する合理性を見つける。
ゲーム理論の不変な有理化基準を導入し、各環境において同じ予測器を最適にするために、有理を制約する。
理論的にも実証的にも、提案された理性は、素早い相関を除外し、異なるテストシナリオをより一般化し、人間の判断とよく一致させることができることを示す。
論文 参考訳(メタデータ) (2020-03-22T00:50:27Z) - Localized Debiased Machine Learning: Efficient Inference on Quantile
Treatment Effects and Beyond [69.83813153444115]
因果推論における(局所)量子化処理効果((L)QTE)の効率的な推定式を検討する。
Debiased Machine Learning (DML)は、高次元のニュアンスを推定するデータ分割手法である。
本稿では、この負担のかかるステップを避けるために、局所的脱バイアス機械学習(LDML)を提案する。
論文 参考訳(メタデータ) (2019-12-30T14:42:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。