論文の概要: MeLIME: Meaningful Local Explanation for Machine Learning Models
- arxiv url: http://arxiv.org/abs/2009.05818v1
- Date: Sat, 12 Sep 2020 16:06:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-19 07:50:32.607126
- Title: MeLIME: Meaningful Local Explanation for Machine Learning Models
- Title(参考訳): MeLIME: 機械学習モデルのための意味のあるローカル説明
- Authors: Tiago Botari, Frederik Hvilsh{\o}j, Rafael Izbicki, Andre C. P. L. F.
de Carvalho
- Abstract要約: 我々のアプローチであるMeLIMEは、異なるMLモデル上での他の手法と比較して、より意味のある説明を生成する。
MeLIMEはLIME法を一般化し、より柔軟な摂動サンプリングと異なる局所解釈可能なモデルの使用を可能にした。
- 参考スコア(独自算出の注目度): 2.819725769698229
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most state-of-the-art machine learning algorithms induce black-box models,
preventing their application in many sensitive domains. Hence, many
methodologies for explaining machine learning models have been proposed to
address this problem. In this work, we introduce strategies to improve local
explanations taking into account the distribution of the data used to train the
black-box models. We show that our approach, MeLIME, produces more meaningful
explanations compared to other techniques over different ML models, operating
on various types of data. MeLIME generalizes the LIME method, allowing more
flexible perturbation sampling and the use of different local interpretable
models. Additionally, we introduce modifications to standard training
algorithms of local interpretable models fostering more robust explanations,
even allowing the production of counterfactual examples. To show the strengths
of the proposed approach, we include experiments on tabular data, images, and
text; all showing improved explanations. In particular, MeLIME generated more
meaningful explanations on the MNIST dataset than methods such as
GuidedBackprop, SmoothGrad, and Layer-wise Relevance Propagation. MeLIME is
available on https://github.com/tiagobotari/melime.
- Abstract(参考訳): ほとんどの最先端機械学習アルゴリズムはブラックボックスモデルを誘導し、多くのセンシティブな領域での応用を妨げている。
したがって、機械学習モデルを説明するための多くの手法が提案されている。
本研究では,ブラックボックスモデルの学習に使用されるデータの分布を考慮した局所的説明の改善戦略を提案する。
提案手法は,様々な種類のデータを扱う異なるMLモデルに対して,他の手法と比較して有意義な説明を行う。
MeLIMEはLIME法を一般化し、より柔軟な摂動サンプリングと異なる局所解釈可能なモデルの使用を可能にする。
さらに,よりロバストな説明を育成する局所解釈モデルの標準学習アルゴリズムの修正を導入し,反実例の生成も可能とした。
提案手法の強みを示すために,表データ,画像,テキストを用いた実験を行った。
特にMeLIMEは、 GuidedBackprop、SmoothGrad、Layer-wise Relevance Propagationといったメソッドよりも、MNISTデータセットについてより意味のある説明を生み出した。
MeLIMEはhttps://github.com/tiagobotari/melime.comで入手できる。
関連論文リスト
- MOUNTAINEER: Topology-Driven Visual Analytics for Comparing Local Explanations [6.835413642522898]
トポロジカルデータ解析(TDA)は、属性を一様グラフ表現に変換するために使用できるため、この領域で有効な方法である。
我々は、新しいトポロジ駆動視覚分析ツールであるMountaineerを紹介し、機械学習の実践者がこれらの表現をインタラクティブに分析し比較できるようにする。
我々は、Mountaineerによって、ブラックボックスMLの説明と、異なる説明の相違の原因を識別する領域を比較できることを示す。
論文 参考訳(メタデータ) (2024-06-21T19:28:50Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - MinT: Boosting Generalization in Mathematical Reasoning via Multi-View
Fine-Tuning [53.90744622542961]
数学領域における推論は、小言語モデル(LM)にとって重要な課題である。
多様なアノテーションスタイルで既存の数学的問題データセットを利用する新しい手法を提案する。
実験結果から,LLaMA-7Bモデルが先行手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-07-16T05:41:53Z) - Local Interpretable Model Agnostic Shap Explanations for machine
learning models [0.0]
局所解釈可能なモデル非依存型シェイプ説明法(LIMASE)を提案する。
提案手法は, LIMEパラダイムの下でシェープリー値を用いて, 局所的忠実かつ解釈可能な決定木モデルを用いて, シェープリー値を計算し, 視覚的に解釈可能な説明を行うことにより, 任意のモデルの予測を行う。
論文 参考訳(メタデータ) (2022-10-10T10:07:27Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - SLISEMAP: Explainable Dimensionality Reduction [0.0]
ブラックボックス制御学習モデルの既存の説明方法は、一般に、特定のデータ項目のモデル動作を説明するローカルモデルを構築することで機能する。
本研究では,すべてのデータ項目の局所的な説明を探索し,モデル空間を二次元的に可視化する新しい多様体可視化手法であるSLISEMAPを提案する。
SLISEMAPはブラックボックスの回帰モデルや分類モデルの説明や理解に使用できる高速で安定した可視化を提供する。
論文 参考訳(メタデータ) (2022-01-12T13:06:21Z) - This looks more like that: Enhancing Self-Explaining Models by
Prototypical Relevance Propagation [17.485732906337507]
本稿では,自己説明型ネットワークであるProtoPNetのアーティファクトのスペクトルの存在下でのケーススタディを示す。
より正確なモデル認識説明を生成するための新しい手法を提案する。
クリーンなデータセットを得るために,アーティファクト画像を分離するためのマルチビュークラスタリング戦略を提案する。
論文 参考訳(メタデータ) (2021-08-27T09:55:53Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Deducing neighborhoods of classes from a fitted model [68.8204255655161]
本稿では,新しいタイプの解釈可能な機械学習手法を提案する。
量子シフトを用いた分類モデルでは、特徴空間の予測クラスへの分割を理解するのに役立ちます。
基本的に、実際のデータポイント(または特定の関心点)を使用し、特定の特徴をわずかに引き上げたり減少させたりした後の予測の変化を観察する。
論文 参考訳(メタデータ) (2020-09-11T16:35:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。