論文の概要: Local Interpretable Model Agnostic Shap Explanations for machine
learning models
- arxiv url: http://arxiv.org/abs/2210.04533v1
- Date: Mon, 10 Oct 2022 10:07:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 15:05:21.970945
- Title: Local Interpretable Model Agnostic Shap Explanations for machine
learning models
- Title(参考訳): 機械学習モデルのための局所解釈可能なモデル非依存型シェープ説明
- Authors: P. Sai Ram Aditya, Mayukha Pal
- Abstract要約: 局所解釈可能なモデル非依存型シェイプ説明法(LIMASE)を提案する。
提案手法は, LIMEパラダイムの下でシェープリー値を用いて, 局所的忠実かつ解釈可能な決定木モデルを用いて, シェープリー値を計算し, 視覚的に解釈可能な説明を行うことにより, 任意のモデルの予測を行う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: With the advancement of technology for artificial intelligence (AI) based
solutions and analytics compute engines, machine learning (ML) models are
getting more complex day by day. Most of these models are generally used as a
black box without user interpretability. Such complex ML models make it more
difficult for people to understand or trust their predictions. There are
variety of frameworks using explainable AI (XAI) methods to demonstrate
explainability and interpretability of ML models to make their predictions more
trustworthy. In this manuscript, we propose a methodology that we define as
Local Interpretable Model Agnostic Shap Explanations (LIMASE). This proposed ML
explanation technique uses Shapley values under the LIME paradigm to achieve
the following (a) explain prediction of any model by using a locally faithful
and interpretable decision tree model on which the Tree Explainer is used to
calculate the shapley values and give visually interpretable explanations. (b)
provide visually interpretable global explanations by plotting local
explanations of several data points. (c) demonstrate solution for the
submodular optimization problem. (d) also bring insight into regional
interpretation e) faster computation compared to use of kernel explainer.
- Abstract(参考訳): 人工知能(AI)ベースのソリューションと分析計算エンジンの進歩により、機械学習(ML)モデルは日に日に日に複雑になっています。
これらのモデルの多くは、一般にユーザ解釈不能なブラックボックスとして使用される。
このような複雑なMLモデルは、予測を理解したり、信頼したりするのを難しくする。
MLモデルの説明可能性と解釈可能性を示すために、説明可能なAI(XAI)メソッドを使用して、予測をより信頼できるものにするために、さまざまなフレームワークがある。
そこで本論文では,局所解釈可能なモデルアグノスティックシェイプ記述法 (LIMASE) として定義する方法論を提案する。
このML説明手法は, LIMEパラダイムの下でシェープリー値を用いて, 以下のことを実現する。
(a)木説明者がシェープ値の計算や視覚的に解釈可能な説明を行う際に使用する局所的忠実かつ解釈可能な決定木モデルを用いて、任意のモデルの予測を説明する。
b)複数のデータポイントの局所的な説明をプロットすることにより、視覚的に解釈可能なグローバルな説明を提供する。
(c)部分モジュラー最適化問題の解を示す。
(d)地域解釈にも洞察をもたらす
e) カーネル説明器よりも高速な計算。
関連論文リスト
- MOUNTAINEER: Topology-Driven Visual Analytics for Comparing Local Explanations [6.835413642522898]
トポロジカルデータ解析(TDA)は、属性を一様グラフ表現に変換するために使用できるため、この領域で有効な方法である。
我々は、新しいトポロジ駆動視覚分析ツールであるMountaineerを紹介し、機械学習の実践者がこれらの表現をインタラクティブに分析し比較できるようにする。
我々は、Mountaineerによって、ブラックボックスMLの説明と、異なる説明の相違の原因を識別する領域を比較できることを示す。
論文 参考訳(メタデータ) (2024-06-21T19:28:50Z) - LLMs for XAI: Future Directions for Explaining Explanations [50.87311607612179]
既存のXAIアルゴリズムを用いて計算した説明の精細化に着目する。
最初の実験とユーザスタディは、LLMがXAIの解釈可能性とユーザビリティを高めるための有望な方法を提供することを示唆している。
論文 参考訳(メタデータ) (2024-05-09T19:17:47Z) - Pyreal: A Framework for Interpretable ML Explanations [51.14710806705126]
Pyrealは、さまざまな解釈可能な機械学習説明を生成するシステムである。
Pyrealは、モデルによって期待される機能空間、関連する説明アルゴリズム、および人間のユーザ間でデータと説明を変換する。
我々の研究は、Pyrealが既存のシステムよりも有用な説明を生成することを示した。
論文 参考訳(メタデータ) (2023-12-20T15:04:52Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Evaluating and Explaining Large Language Models for Code Using Syntactic
Structures [74.93762031957883]
本稿では,コード用大規模言語モデルに特有の説明可能性手法であるASTxplainerを紹介する。
その中核にあるASTxplainerは、トークン予測をASTノードに整合させる自動メソッドを提供する。
私たちは、最も人気のあるGitHubプロジェクトのキュレートデータセットを使用して、コード用の12の人気のあるLLMに対して、実証的な評価を行います。
論文 参考訳(メタデータ) (2023-08-07T18:50:57Z) - Understanding Post-hoc Explainers: The Case of Anchors [6.681943980068051]
本稿では,テキストの判断を説明するために,少数の単語群をハイライトする規則に基づく解釈可能性法の理論解析を行う。
アルゴリズムを定式化し有用な洞察を提供した後、数学的にアンカーが有意義な結果をもたらすことを示す。
論文 参考訳(メタデータ) (2023-03-15T17:56:34Z) - GAM(e) changer or not? An evaluation of interpretable machine learning
models based on additive model constraints [5.783415024516947]
本稿では,一連の固有解釈可能な機械学習モデルについて検討する。
5つのGAMの予測特性を従来のMLモデルと比較した。
論文 参考訳(メタデータ) (2022-04-19T20:37:31Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - MeLIME: Meaningful Local Explanation for Machine Learning Models [2.819725769698229]
我々のアプローチであるMeLIMEは、異なるMLモデル上での他の手法と比較して、より意味のある説明を生成する。
MeLIMEはLIME法を一般化し、より柔軟な摂動サンプリングと異なる局所解釈可能なモデルの使用を可能にした。
論文 参考訳(メタデータ) (2020-09-12T16:06:58Z) - Deducing neighborhoods of classes from a fitted model [68.8204255655161]
本稿では,新しいタイプの解釈可能な機械学習手法を提案する。
量子シフトを用いた分類モデルでは、特徴空間の予測クラスへの分割を理解するのに役立ちます。
基本的に、実際のデータポイント(または特定の関心点)を使用し、特定の特徴をわずかに引き上げたり減少させたりした後の予測の変化を観察する。
論文 参考訳(メタデータ) (2020-09-11T16:35:53Z) - Accurate and Intuitive Contextual Explanations using Linear Model Trees [0.0]
ローカルなポストホックモデル説明が広く採用されている。
技術手法の現状は、初歩的な手法を用いて説明すべき点の周囲に合成データを生成する。
我々は、合成データ生成にジェネレーティブ・アドバイサル・ネットワークを使用し、線形モデルツリーの形で断片的な線形モデルを訓練する。
論文 参考訳(メタデータ) (2020-09-11T10:13:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。