論文の概要: Using Decision Tree as Local Interpretable Model in Autoencoder-based
LIME
- arxiv url: http://arxiv.org/abs/2204.03321v1
- Date: Thu, 7 Apr 2022 09:39:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-09 02:41:37.623661
- Title: Using Decision Tree as Local Interpretable Model in Autoencoder-based
LIME
- Title(参考訳): オートエンコーダに基づくlimeにおける局所解釈モデルとしての決定木の利用
- Authors: Niloofar Ranjbar and Reza Safabakhsh
- Abstract要約: 本稿では、ALIMEと呼ばれる局所的解釈可能性のためのオートエンコーダに基づくアプローチの修正版を提案する。
本稿では,線形モデルの代わりに決定木を解釈可能なモデルとして用いた新しい手法を提案する。
ALIMEと比較して、実験は安定性と局所忠実度に有意な結果を示し、解釈可能性にも改善された。
- 参考スコア(独自算出の注目度): 0.76146285961466
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Nowadays, deep neural networks are being used in many domains because of
their high accuracy results. However, they are considered as "black box", means
that they are not explainable for humans. On the other hand, in some tasks such
as medical, economic, and self-driving cars, users want the model to be
interpretable to decide if they can trust these results or not. In this work,
we present a modified version of an autoencoder-based approach for local
interpretability called ALIME. The ALIME itself is inspired by a famous method
called Local Interpretable Model-agnostic Explanations (LIME). LIME generates a
single instance level explanation by generating new data around the instance
and training a local linear interpretable model. ALIME uses an autoencoder to
weigh the new data around the sample. Nevertheless, the ALIME uses a linear
model as the interpretable model to be trained locally, just like the LIME.
This work proposes a new approach, which uses a decision tree instead of the
linear model, as the interpretable model. We evaluate the proposed model in
case of stability, local fidelity, and interpretability on different datasets.
Compared to ALIME, the experiments show significant results on stability and
local fidelity and improved results on interpretability.
- Abstract(参考訳): 近年、ディープニューラルネットワークは精度が高いため、多くの領域で使用されている。
しかし、それらは「黒い箱」と見なされ、人間には説明できないことを意味する。
一方、医療、経済、自動運転車などのタスクでは、ユーザーはモデルを解釈して、これらの結果が信頼できるかどうかを判断する必要がある。
本稿では,alimeと呼ばれる局所的解釈可能性に対するオートエンコーダに基づくアプローチの修正版を提案する。
ALIME自体は、Local Interpretable Model-Agnostic Explanations (LIME)と呼ばれる有名な手法にインスパイアされている。
LIMEは、インスタンスの周りに新しいデータを生成し、局所線形解釈可能なモデルをトレーニングすることで、単一のインスタンスレベルの説明を生成する。
alimeはautoencoderを使ってサンプルの周りの新しいデータを測定する。
それでもALIMEはLIMEと同じように、リニアモデルを解釈可能なモデルとしてローカルにトレーニングする。
本稿では,線形モデルの代わりに決定木を解釈可能なモデルとして用いた新しい手法を提案する。
異なるデータセット上での安定性,局所的忠実性,解釈可能性について,提案モデルを評価した。
ALIMEと比較して、実験は安定性と局所忠実度に有意な結果を示し、解釈可能性にも改善された。
関連論文リスト
- MASALA: Model-Agnostic Surrogate Explanations by Locality Adaptation [3.587367153279351]
既存のローカル説明可能なAI(XAI)メソッドは、与えられた入力インスタンスの近傍にある入力空間の領域を選択し、より単純で解釈可能な代理モデルを用いてモデルの振る舞いを近似する。
そこで本研究では,各インスタンスごとの衝突モデル行動の適切な局所領域を自動決定する手法であるMASALAを提案する。
論文 参考訳(メタデータ) (2024-08-19T15:26:45Z) - Distilling BlackBox to Interpretable models for Efficient Transfer
Learning [19.40897632956169]
一般化可能なAIモデルの構築は、医療分野における大きな課題のひとつだ。
あるドメインから別のドメインに知識を転送するモデルを微調整するには、ターゲットドメイン内の大量のラベル付きデータが必要である。
本研究では,最小の計算コストで効率よく未確認対象領域に微調整できる解釈可能なモデルを開発する。
論文 参考訳(メタデータ) (2023-05-26T23:23:48Z) - Interpretability at Scale: Identifying Causal Mechanisms in Alpaca [62.65877150123775]
本研究では、Boundless DASを用いて、命令に従う間、大規模言語モデルにおける解釈可能な因果構造を効率的に探索する。
私たちの発見は、成長し、最も広くデプロイされている言語モデルの内部構造を忠実に理解するための第一歩です。
論文 参考訳(メタデータ) (2023-05-15T17:15:40Z) - An Interpretable Loan Credit Evaluation Method Based on Rule
Representation Learner [8.08640000394814]
我々は、Lending ClubデータセットのRRL(Rule Representation)に基づいて、本質的に解釈可能なモデルを設計する。
トレーニング中、私たちは以前の研究から、バイナリウェイトを効果的にトレーニングするためのトリックを学びました。
本モデルは,ポストホック法により生成された説明の正当性を検証するために用いられる。
論文 参考訳(メタデータ) (2023-04-03T05:55:04Z) - Utilizing XAI technique to improve autoencoder based model for computer
network anomaly detection with shapley additive explanation(SHAP) [0.0]
機械学習(ML)とディープラーニング(DL)メソッドは、特にコンピュータネットワークセキュリティにおいて急速に採用されている。
MLとDLベースのモデルの透明性の欠如は、実装の大きな障害であり、ブラックボックスの性質から批判されている。
XAIは、これらのモデルの信頼性を向上させる上で、説明やアウトプットの解釈を通じて有望な分野である。
論文 参考訳(メタデータ) (2021-12-14T09:42:04Z) - Distributionally Robust Recurrent Decoders with Random Network
Distillation [93.10261573696788]
本稿では,自動回帰言語モデルが推論中にOODコンテキストを無視できるように,ランダムネットワーク蒸留を用いたOOD検出に基づく手法を提案する。
提案手法をGRUアーキテクチャに適用し,複数の言語モデリング(LM)データセットの改善を実証する。
論文 参考訳(メタデータ) (2021-10-25T19:26:29Z) - Distilling Interpretable Models into Human-Readable Code [71.11328360614479]
人間可読性は機械学習モデル解釈可能性にとって重要で望ましい標準である。
従来の方法を用いて解釈可能なモデルを訓練し,それを簡潔で可読なコードに抽出する。
本稿では,幅広いユースケースで効率的に,確実に高品質な結果を生成する分別線形曲線フィッティングアルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-01-21T01:46:36Z) - Interpretable Multi-dataset Evaluation for Named Entity Recognition [110.64368106131062]
本稿では,名前付きエンティティ認識(NER)タスクに対する一般的な評価手法を提案する。
提案手法は,モデルとデータセットの違いと,それらの間の相互作用を解釈することを可能にする。
分析ツールを利用可能にすることで、将来の研究者が同様の分析を実行し、この分野の進歩を促進することができる。
論文 参考訳(メタデータ) (2020-11-13T10:53:27Z) - Leakage-Adjusted Simulatability: Can Models Generate Non-Trivial
Explanations of Their Behavior in Natural Language? [86.60613602337246]
我々はNL説明を評価するためのリーク調整シミュラビリティ(LAS)指標を提案する。
LASは、どのように説明が直接アウトプットをリークするかを制御しながら、オブザーバがモデルのアウトプットを予測するのに役立つかを計測する。
マルチエージェントゲームとしての説明文生成を行い、ラベルリークをペナライズしながら、シミュラビリティの説明を最適化する。
論文 参考訳(メタデータ) (2020-10-08T16:59:07Z) - VAE-LIME: Deep Generative Model Based Approach for Local Data-Driven
Model Interpretability Applied to the Ironmaking Industry [70.10343492784465]
モデル予測だけでなく、その解釈可能性も、プロセスエンジニアに公開する必要があります。
LIMEに基づくモデルに依存しない局所的解釈可能性ソリューションが最近出現し、元の手法が改良された。
本稿では, 燃焼炉で生成する高温金属の温度を推定するデータ駆動型モデルの局所的解釈可能性に関する新しいアプローチ, VAE-LIMEを提案する。
論文 参考訳(メタデータ) (2020-07-15T07:07:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。