論文の概要: What does LIME really see in images?
- arxiv url: http://arxiv.org/abs/2102.06307v1
- Date: Thu, 11 Feb 2021 23:18:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-15 13:19:23.567448
- Title: What does LIME really see in images?
- Title(参考訳): LIMEは画像に何が見えるのか?
- Authors: Damien Garreau, Dina Mardaoui
- Abstract要約: LIMEはおそらく最も人気のあるInterpretabilityメソッドの1つである。
生成した例の数が多ければ, LIME の説明は限界説明を中心に集中することを示す。
本研究は,基本形状検出器と線形モデルについてさらに述べる。
- 参考スコア(独自算出の注目度): 4.18804572788063
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The performance of modern algorithms on certain computer vision tasks such as
object recognition is now close to that of humans. This success was achieved at
the price of complicated architectures depending on millions of parameters and
it has become quite challenging to understand how particular predictions are
made. Interpretability methods propose to give us this understanding. In this
paper, we study LIME, perhaps one of the most popular. On the theoretical side,
we show that when the number of generated examples is large, LIME explanations
are concentrated around a limit explanation for which we give an explicit
expression. We further this study for elementary shape detectors and linear
models. As a consequence of this analysis, we uncover a connection between LIME
and integrated gradients, another explanation method. More precisely, the LIME
explanations are similar to the sum of integrated gradients over the
superpixels used in the preprocessing step of LIME.
- Abstract(参考訳): オブジェクト認識のような特定のコンピュータビジョンタスクにおける現代のアルゴリズムのパフォーマンスは、今や人間のそれに近い。
この成功は、数百万のパラメータに応じて複雑なアーキテクチャのコストで達成され、特定の予測がどのように行われるかを理解することが非常に困難になっています。
解釈可能性法は、この理解を与える。
この論文では、LIME、おそらく最も人気のあるものの1つを研究します。
理論的には、生成された例の数が多い場合、LIMEの説明は明示的な表現を与える制限説明の周りに集中されることを示しています。
本研究は,基本形状検出器と線形モデルについてさらに述べる。
この分析の結果、LIMEと積分勾配の関連性、すなわち別の説明法が明らかになった。
より正確には、LIMEの説明は、LIMEの前処理ステップで使用されるスーパーピクセル上の積分勾配の和に類似している。
関連論文リスト
- A Novel Explainable Artificial Intelligence Model in Image
Classification problem [0.0]
本稿では,これらのアルゴリズムの利点を組み合わせたSeCAM(Activation Class Mapping)という新しい手法を提案する。
我々は、このアルゴリズムを、画像Net Large Scale Visual Recognition Challenge (ILSVRC)データセットのResNet50、Inception-v3、VGG16など様々なモデルでテストした。
論文 参考訳(メタデータ) (2023-07-09T09:33:05Z) - Interpretability at Scale: Identifying Causal Mechanisms in Alpaca [62.65877150123775]
本研究では、Boundless DASを用いて、命令に従う間、大規模言語モデルにおける解釈可能な因果構造を効率的に探索する。
私たちの発見は、成長し、最も広くデプロイされている言語モデルの内部構造を忠実に理解するための第一歩です。
論文 参考訳(メタデータ) (2023-05-15T17:15:40Z) - s-LIME: Reconciling Locality and Fidelity in Linear Explanations [0.0]
LIME説明の忠実度と意味性に及ぼす帯域幅とトレーニング近傍の影響について検討した。
我々は, 忠実度と局所性を両立するLIMEの拡張であるスライムを提案する。
論文 参考訳(メタデータ) (2022-08-02T14:55:08Z) - Learning to Scaffold: Optimizing Model Explanations for Teaching [74.25464914078826]
我々は3つの自然言語処理とコンピュータビジョンタスクのモデルを訓練する。
筆者らは,本フレームワークで抽出した説明文を学習した学生が,従来の手法よりもはるかに効果的に教師をシミュレートできることを発見した。
論文 参考訳(メタデータ) (2022-04-22T16:43:39Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - Learning outside the Black-Box: The pursuit of interpretable models [78.32475359554395]
本稿では,任意の連続ブラックボックス関数の連続的大域的解釈を生成するアルゴリズムを提案する。
我々の解釈は、その芸術の以前の状態から飛躍的な進歩を表している。
論文 参考訳(メタデータ) (2020-11-17T12:39:44Z) - An Analysis of LIME for Text Data [12.843340232167266]
テキストデータに対するLIMEの最初の理論的解析を行う。
その結果,LIMEは単純なモデルに対して有意義な説明を提供することがわかった。
論文 参考訳(メタデータ) (2020-10-23T15:40:13Z) - Looking Deeper into Tabular LIME [23.988618287393837]
表データの場合, LIME のデフォルト実装に関する理論的解析を行う。
線形関数に対して、LIMEは、説明すべき関数の係数に比例する説明を提供するのに望ましい性質を持つことを示す。
分割型回帰器の場合、LIMEは望ましくない人工物を生成し、誤解を招くような説明を提供する。
論文 参考訳(メタデータ) (2020-08-25T15:10:57Z) - Approximate MMAP by Marginal Search [78.50747042819503]
本稿では,グラフィカルモデルにおける最小値MAPクエリの戦略を提案する。
提案した信頼度尺度は,アルゴリズムが正確であるインスタンスを適切に検出するものである。
十分に高い信頼度を得るために、アルゴリズムは正確な解を与えるか、正確な解からハミング距離が小さい近似を与える。
論文 参考訳(メタデータ) (2020-02-12T07:41:13Z) - Explaining the Explainer: A First Theoretical Analysis of LIME [23.988618287393837]
LIME (Local Interpretable Model-Agnostic Explanation)。
説明すべき関数が線型であるとき、解釈可能なモデルの係数に対する閉形式式を導出する。
分析の結果、パラメータの選択肢が乏しいため、LIMEは重要な機能を見逃す可能性があることが判明した。
論文 参考訳(メタデータ) (2020-01-10T13:51:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。