論文の概要: Statistical stability indices for LIME: obtaining reliable explanations
for Machine Learning models
- arxiv url: http://arxiv.org/abs/2001.11757v2
- Date: Thu, 12 Nov 2020 09:30:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-05 05:34:14.908185
- Title: Statistical stability indices for LIME: obtaining reliable explanations
for Machine Learning models
- Title(参考訳): 石灰の統計安定性指標:機械学習モデルのための信頼できる説明を得る
- Authors: Giorgio Visani, Enrico Bagli, Federico Chesani, Alessandro Poluzzi and
Davide Capuzzo
- Abstract要約: 機械学習技術の利用が絶え間なく増加していることは、このような傾向の最も明白な例である。
アルゴリズムが決定を下した根拠を理解することは極めて困難である。
実践者がこの問題に気付くこと、そしてそれを見つけるためのツールを持つことが重要である。
- 参考スコア(独自算出の注目度): 60.67142194009297
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nowadays we are witnessing a transformation of the business processes towards
a more computation driven approach. The ever increasing usage of Machine
Learning techniques is the clearest example of such trend.
This sort of revolution is often providing advantages, such as an increase in
prediction accuracy and a reduced time to obtain the results. However, these
methods present a major drawback: it is very difficult to understand on what
grounds the algorithm took the decision.
To address this issue we consider the LIME method. We give a general
background on LIME then, we focus on the stability issue: employing the method
repeated times, under the same conditions, may yield to different explanations.
Two complementary indices are proposed, to measure LIME stability. It is
important for the practitioner to be aware of the issue, as well as to have a
tool for spotting it. Stability guarantees LIME explanations to be reliable,
therefore a stability assessment, made through the proposed indices, is
crucial.
As a case study, we apply both Machine Learning and classical statistical
techniques to Credit Risk data. We test LIME on the Machine Learning algorithm
and check its stability. Eventually, we examine the goodness of the
explanations returned.
- Abstract(参考訳): 今日では、ビジネスプロセスをより計算駆動的なアプローチに転換するのを目撃しています。
機械学習技術の利用がますます増えていることは、こうしたトレンドの最も明確な例だ。
この種の革命は、予測精度の向上や結果を得るためにの時間短縮など、しばしば利点を提供している。
しかし、これらの手法には大きな欠点があり、アルゴリズムが決定を下した根拠を理解することは極めて困難である。
この問題に対処するために、LIMEメソッドを検討します。
LIMEの一般的な背景を述べ、安定性の問題に焦点をあてる:同じ条件下で繰り返し手法を用いることは、異なる説明をもたらす可能性がある。
LIME安定性を測定するための2つの補完指標が提案されている。
実践者がこの問題に気付くこと、そしてそれを見つけるためのツールを持つことが重要である。
安定性はライムの説明が信頼できることを保証するため,提案する指標を通した安定性評価が重要である。
ケーススタディとして、信用リスクデータに機械学習と古典的な統計手法の両方を適用する。
機械学習アルゴリズム上でLIMEをテストし、その安定性を確認する。
最終的に、返却された説明の良さを調べます。
関連論文リスト
- Adapting to Continuous Covariate Shift via Online Density Ratio
Estimation [90.62832273403077]
分散シフトへの対処は、現代の機械学習における中心的な課題の1つだ。
我々の目標は、予測者が時間とともに蓄積される予測リスクを最小限に抑えるように、適応的に予測者を訓練することである。
論文 参考訳(メタデータ) (2023-02-06T04:03:33Z) - Automatic Data Augmentation via Invariance-Constrained Learning [94.27081585149836]
下位のデータ構造は、しばしば学習タスクのソリューションを改善するために利用される。
データ拡張は、入力データに複数の変換を適用することで、トレーニング中にこれらの対称性を誘導する。
この作業は、学習タスクを解決しながらデータ拡張を自動的に適応することで、これらの問題に対処する。
論文 参考訳(メタデータ) (2022-09-29T18:11:01Z) - Robustness and Usefulness in AI Explanation Methods [0.0]
この研究は、LIME、SmoothGrad、SHAPの3つの一般的な説明手法を要約し、比較し、対比する。
我々は,これらの手法の評価を行った:頑健さ,サンプルの複雑さと安定性,理解可能性,提供された説明がユーザの期待と一致しているという意味で。
この研究は、現在の説明方法が不十分である、と結論付けている。
論文 参考訳(メタデータ) (2022-03-07T21:30:48Z) - Just Another Method to Compute MTTF from Continuous Time Markov Chain [0.0]
平均失敗時間 (Meantime to Failure) は、システムが吸収状態に入るのにどれだけの時間を費やしているかを決定する統計である。
本研究は,連続時間マルコフ連鎖モデルから平均失敗時間を求める手法を提案する。
論文 参考訳(メタデータ) (2022-02-01T14:21:25Z) - MIRACLE: Causally-Aware Imputation via Learning Missing Data Mechanisms [82.90843777097606]
欠落データに対する因果認識型計算アルゴリズム(MIRACLE)を提案する。
MIRACLEは、欠落発生機構を同時にモデル化することにより、ベースラインの計算を反復的に洗練する。
我々は、MIRACLEが一貫してイミューテーションを改善することができることを示すために、合成および様々な公開データセットに関する広範な実験を行う。
論文 参考訳(メタデータ) (2021-11-04T22:38:18Z) - TrustyAI Explainability Toolkit [1.0499611180329804]
trustyaiが意思決定サービスと予測モデルに対する信頼をどのように支援できるか検討する。
我々は, LIME, SHAP, および対策技術について検討する。
また、評価対象の背景データ選択をサポートするSHAPの拡張バージョンについても検討します。
論文 参考訳(メタデータ) (2021-04-26T17:00:32Z) - Do Not Forget to Attend to Uncertainty while Mitigating Catastrophic
Forgetting [29.196246255389664]
ディープラーニングモデルの大きな制限の1つは、漸進的な学習シナリオにおいて、破滅的な忘れに直面していることだ。
ベイズ式を定式化して,不確実性をモデル化する。
漸進的な学習問題に対処するために、自己認識フレームワークも組み込んでいます。
論文 参考訳(メタデータ) (2021-02-03T06:54:52Z) - OptiLIME: Optimized LIME Explanations for Diagnostic Computer Algorithms [2.570261777174546]
LIME(Local Interpretable Model-Agnostic Explanations)は、機械学習(ML)モデルの解釈可能性を実現する一般的な手法である。
LIMEは様々な領域に広がっているが、その不安定性は大きな欠点の1つである。
既定の従順性を維持しつつ,安定性を最大化する枠組みを提案する。
論文 参考訳(メタデータ) (2020-06-10T08:10:37Z) - DisCor: Corrective Feedback in Reinforcement Learning via Distribution
Correction [96.90215318875859]
ブートストラップに基づくQ-ラーニングアルゴリズムは必ずしも修正フィードバックの恩恵を受けないことを示す。
本稿では,この最適分布に対する近似を計算し,トレーニングに使用する遷移の重み付けに使用する新しいアルゴリズムであるDisCorを提案する。
論文 参考訳(メタデータ) (2020-03-16T16:18:52Z) - Hidden Cost of Randomized Smoothing [72.93630656906599]
本稿では、現在のランダム化平滑化による副作用を指摘する。
具体的には,1)スムーズな分類器の決定境界が小さくなり,クラスレベルでの精度の相違が生じること,2)学習過程における雑音増強の適用は,一貫性のない学習目的による縮小問題を必ずしも解決しない,という2つの主要なポイントを具体化し,証明する。
論文 参考訳(メタデータ) (2020-03-02T23:37:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。