論文の概要: Local Interpretable Model Agnostic Shap Explanations for machine
learning models
- arxiv url: http://arxiv.org/abs/2210.04533v1
- Date: Mon, 10 Oct 2022 10:07:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 15:05:21.970945
- Title: Local Interpretable Model Agnostic Shap Explanations for machine
learning models
- Title(参考訳): 機械学習モデルのための局所解釈可能なモデル非依存型シェープ説明
- Authors: P. Sai Ram Aditya, Mayukha Pal
- Abstract要約: 局所解釈可能なモデル非依存型シェイプ説明法(LIMASE)を提案する。
提案手法は, LIMEパラダイムの下でシェープリー値を用いて, 局所的忠実かつ解釈可能な決定木モデルを用いて, シェープリー値を計算し, 視覚的に解釈可能な説明を行うことにより, 任意のモデルの予測を行う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: With the advancement of technology for artificial intelligence (AI) based
solutions and analytics compute engines, machine learning (ML) models are
getting more complex day by day. Most of these models are generally used as a
black box without user interpretability. Such complex ML models make it more
difficult for people to understand or trust their predictions. There are
variety of frameworks using explainable AI (XAI) methods to demonstrate
explainability and interpretability of ML models to make their predictions more
trustworthy. In this manuscript, we propose a methodology that we define as
Local Interpretable Model Agnostic Shap Explanations (LIMASE). This proposed ML
explanation technique uses Shapley values under the LIME paradigm to achieve
the following (a) explain prediction of any model by using a locally faithful
and interpretable decision tree model on which the Tree Explainer is used to
calculate the shapley values and give visually interpretable explanations. (b)
provide visually interpretable global explanations by plotting local
explanations of several data points. (c) demonstrate solution for the
submodular optimization problem. (d) also bring insight into regional
interpretation e) faster computation compared to use of kernel explainer.
- Abstract(参考訳): 人工知能(AI)ベースのソリューションと分析計算エンジンの進歩により、機械学習(ML)モデルは日に日に日に複雑になっています。
これらのモデルの多くは、一般にユーザ解釈不能なブラックボックスとして使用される。
このような複雑なMLモデルは、予測を理解したり、信頼したりするのを難しくする。
MLモデルの説明可能性と解釈可能性を示すために、説明可能なAI(XAI)メソッドを使用して、予測をより信頼できるものにするために、さまざまなフレームワークがある。
そこで本論文では,局所解釈可能なモデルアグノスティックシェイプ記述法 (LIMASE) として定義する方法論を提案する。
このML説明手法は, LIMEパラダイムの下でシェープリー値を用いて, 以下のことを実現する。
(a)木説明者がシェープ値の計算や視覚的に解釈可能な説明を行う際に使用する局所的忠実かつ解釈可能な決定木モデルを用いて、任意のモデルの予測を説明する。
b)複数のデータポイントの局所的な説明をプロットすることにより、視覚的に解釈可能なグローバルな説明を提供する。
(c)部分モジュラー最適化問題の解を示す。
(d)地域解釈にも洞察をもたらす
e) カーネル説明器よりも高速な計算。
関連論文リスト
- Pyreal: A Framework for Interpretable ML Explanations [51.14710806705126]
Pyrealは、さまざまな解釈可能な機械学習説明を生成するシステムである。
Pyrealは、モデルによって期待される機能空間、関連する説明アルゴリズム、および人間のユーザ間でデータと説明を変換する。
我々の研究は、Pyrealが既存のシステムよりも有用な説明を生成することを示した。
論文 参考訳(メタデータ) (2023-12-20T15:04:52Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Evaluating and Explaining Large Language Models for Code Using Syntactic
Structures [74.93762031957883]
本稿では,コード用大規模言語モデルに特有の説明可能性手法であるASTxplainerを紹介する。
その中核にあるASTxplainerは、トークン予測をASTノードに整合させる自動メソッドを提供する。
私たちは、最も人気のあるGitHubプロジェクトのキュレートデータセットを使用して、コード用の12の人気のあるLLMに対して、実証的な評価を行います。
論文 参考訳(メタデータ) (2023-08-07T18:50:57Z) - Commentary on explainable artificial intelligence methods: SHAP and LIME [7.104895625811305]
本稿では、広く使われている2つのXAI手法の説明可能性指標について論じる。
本稿では,その弱点と強みを浮き彫りにして,その成果を解釈するための枠組みを提案する。
論文 参考訳(メタデータ) (2023-05-03T10:04:46Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - Understanding Post-hoc Explainers: The Case of Anchors [6.681943980068051]
本稿では,テキストの判断を説明するために,少数の単語群をハイライトする規則に基づく解釈可能性法の理論解析を行う。
アルゴリズムを定式化し有用な洞察を提供した後、数学的にアンカーが有意義な結果をもたらすことを示す。
論文 参考訳(メタデータ) (2023-03-15T17:56:34Z) - GAM(e) changer or not? An evaluation of interpretable machine learning
models based on additive model constraints [5.783415024516947]
本稿では,一連の固有解釈可能な機械学習モデルについて検討する。
5つのGAMの予測特性を従来のMLモデルと比較した。
論文 参考訳(メタデータ) (2022-04-19T20:37:31Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - MeLIME: Meaningful Local Explanation for Machine Learning Models [2.819725769698229]
我々のアプローチであるMeLIMEは、異なるMLモデル上での他の手法と比較して、より意味のある説明を生成する。
MeLIMEはLIME法を一般化し、より柔軟な摂動サンプリングと異なる局所解釈可能なモデルの使用を可能にした。
論文 参考訳(メタデータ) (2020-09-12T16:06:58Z) - Deducing neighborhoods of classes from a fitted model [68.8204255655161]
本稿では,新しいタイプの解釈可能な機械学習手法を提案する。
量子シフトを用いた分類モデルでは、特徴空間の予測クラスへの分割を理解するのに役立ちます。
基本的に、実際のデータポイント(または特定の関心点)を使用し、特定の特徴をわずかに引き上げたり減少させたりした後の予測の変化を観察する。
論文 参考訳(メタデータ) (2020-09-11T16:35:53Z) - Accurate and Intuitive Contextual Explanations using Linear Model Trees [0.0]
ローカルなポストホックモデル説明が広く採用されている。
技術手法の現状は、初歩的な手法を用いて説明すべき点の周囲に合成データを生成する。
我々は、合成データ生成にジェネレーティブ・アドバイサル・ネットワークを使用し、線形モデルツリーの形で断片的な線形モデルを訓練する。
論文 参考訳(メタデータ) (2020-09-11T10:13:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。