論文の概要: Statistical stability indices for LIME: obtaining reliable explanations
for Machine Learning models
- arxiv url: http://arxiv.org/abs/2001.11757v2
- Date: Thu, 12 Nov 2020 09:30:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-05 05:34:14.908185
- Title: Statistical stability indices for LIME: obtaining reliable explanations
for Machine Learning models
- Title(参考訳): 石灰の統計安定性指標:機械学習モデルのための信頼できる説明を得る
- Authors: Giorgio Visani, Enrico Bagli, Federico Chesani, Alessandro Poluzzi and
Davide Capuzzo
- Abstract要約: 機械学習技術の利用が絶え間なく増加していることは、このような傾向の最も明白な例である。
アルゴリズムが決定を下した根拠を理解することは極めて困難である。
実践者がこの問題に気付くこと、そしてそれを見つけるためのツールを持つことが重要である。
- 参考スコア(独自算出の注目度): 60.67142194009297
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nowadays we are witnessing a transformation of the business processes towards
a more computation driven approach. The ever increasing usage of Machine
Learning techniques is the clearest example of such trend.
This sort of revolution is often providing advantages, such as an increase in
prediction accuracy and a reduced time to obtain the results. However, these
methods present a major drawback: it is very difficult to understand on what
grounds the algorithm took the decision.
To address this issue we consider the LIME method. We give a general
background on LIME then, we focus on the stability issue: employing the method
repeated times, under the same conditions, may yield to different explanations.
Two complementary indices are proposed, to measure LIME stability. It is
important for the practitioner to be aware of the issue, as well as to have a
tool for spotting it. Stability guarantees LIME explanations to be reliable,
therefore a stability assessment, made through the proposed indices, is
crucial.
As a case study, we apply both Machine Learning and classical statistical
techniques to Credit Risk data. We test LIME on the Machine Learning algorithm
and check its stability. Eventually, we examine the goodness of the
explanations returned.
- Abstract(参考訳): 今日では、ビジネスプロセスをより計算駆動的なアプローチに転換するのを目撃しています。
機械学習技術の利用がますます増えていることは、こうしたトレンドの最も明確な例だ。
この種の革命は、予測精度の向上や結果を得るためにの時間短縮など、しばしば利点を提供している。
しかし、これらの手法には大きな欠点があり、アルゴリズムが決定を下した根拠を理解することは極めて困難である。
この問題に対処するために、LIMEメソッドを検討します。
LIMEの一般的な背景を述べ、安定性の問題に焦点をあてる:同じ条件下で繰り返し手法を用いることは、異なる説明をもたらす可能性がある。
LIME安定性を測定するための2つの補完指標が提案されている。
実践者がこの問題に気付くこと、そしてそれを見つけるためのツールを持つことが重要である。
安定性はライムの説明が信頼できることを保証するため,提案する指標を通した安定性評価が重要である。
ケーススタディとして、信用リスクデータに機械学習と古典的な統計手法の両方を適用する。
機械学習アルゴリズム上でLIMEをテストし、その安定性を確認する。
最終的に、返却された説明の良さを調べます。
関連論文リスト
- Scalability of memorization-based machine unlearning [2.5782420501870296]
機械学習(MUL)は、事前訓練されたモデルからデータの特定のサブセットの影響を取り除くことに焦点を当てている。
記憶に基づく未学習法が開発され、未学習の品質に関して例外的な性能を示した。
我々は、一連の記憶スコアプロキシを用いて、最先端の記憶型MULアルゴリズムのスケーラビリティに挑戦する。
論文 参考訳(メタデータ) (2024-10-21T21:18:39Z) - Improving Data-aware and Parameter-aware Robustness for Continual Learning [3.480626767752489]
本報告では, オフラヤの非効率な取扱いから, この不整合が生じることを解析する。
本稿では,ロバスト連続学習(RCL)手法を提案する。
提案手法は, 堅牢性を効果的に維持し, 新たなSOTA(State-of-the-art)結果を得る。
論文 参考訳(メタデータ) (2024-05-27T11:21:26Z) - Preservation of Feature Stability in Machine Learning Under Data Uncertainty for Decision Support in Critical Domains [0.0]
人間の活動における決定は、しばしば重要な領域であっても不完全なデータに依存する。
本稿では,従来の機械学習手法を用いた一連の実験を行うことで,このギャップに対処する。
ML記述法は,データの不完全性が増大するにつれて特徴選択の安定性を確保しつつ,高い分類精度を維持する。
論文 参考訳(メタデータ) (2024-01-19T22:11:54Z) - Automatic Data Augmentation via Invariance-Constrained Learning [94.27081585149836]
下位のデータ構造は、しばしば学習タスクのソリューションを改善するために利用される。
データ拡張は、入力データに複数の変換を適用することで、トレーニング中にこれらの対称性を誘導する。
この作業は、学習タスクを解決しながらデータ拡張を自動的に適応することで、これらの問題に対処する。
論文 参考訳(メタデータ) (2022-09-29T18:11:01Z) - Evaluating Machine Unlearning via Epistemic Uncertainty [78.27542864367821]
本研究では,不確実性に基づく機械学習アルゴリズムの評価を行う。
これは私たちの最良の知識の一般的な評価の最初の定義です。
論文 参考訳(メタデータ) (2022-08-23T09:37:31Z) - Just Another Method to Compute MTTF from Continuous Time Markov Chain [0.0]
平均失敗時間 (Meantime to Failure) は、システムが吸収状態に入るのにどれだけの時間を費やしているかを決定する統計である。
本研究は,連続時間マルコフ連鎖モデルから平均失敗時間を求める手法を提案する。
論文 参考訳(メタデータ) (2022-02-01T14:21:25Z) - MIRACLE: Causally-Aware Imputation via Learning Missing Data Mechanisms [82.90843777097606]
欠落データに対する因果認識型計算アルゴリズム(MIRACLE)を提案する。
MIRACLEは、欠落発生機構を同時にモデル化することにより、ベースラインの計算を反復的に洗練する。
我々は、MIRACLEが一貫してイミューテーションを改善することができることを示すために、合成および様々な公開データセットに関する広範な実験を行う。
論文 参考訳(メタデータ) (2021-11-04T22:38:18Z) - OptiLIME: Optimized LIME Explanations for Diagnostic Computer Algorithms [2.570261777174546]
LIME(Local Interpretable Model-Agnostic Explanations)は、機械学習(ML)モデルの解釈可能性を実現する一般的な手法である。
LIMEは様々な領域に広がっているが、その不安定性は大きな欠点の1つである。
既定の従順性を維持しつつ,安定性を最大化する枠組みを提案する。
論文 参考訳(メタデータ) (2020-06-10T08:10:37Z) - DisCor: Corrective Feedback in Reinforcement Learning via Distribution
Correction [96.90215318875859]
ブートストラップに基づくQ-ラーニングアルゴリズムは必ずしも修正フィードバックの恩恵を受けないことを示す。
本稿では,この最適分布に対する近似を計算し,トレーニングに使用する遷移の重み付けに使用する新しいアルゴリズムであるDisCorを提案する。
論文 参考訳(メタデータ) (2020-03-16T16:18:52Z) - Hidden Cost of Randomized Smoothing [72.93630656906599]
本稿では、現在のランダム化平滑化による副作用を指摘する。
具体的には,1)スムーズな分類器の決定境界が小さくなり,クラスレベルでの精度の相違が生じること,2)学習過程における雑音増強の適用は,一貫性のない学習目的による縮小問題を必ずしも解決しない,という2つの主要なポイントを具体化し,証明する。
論文 参考訳(メタデータ) (2020-03-02T23:37:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。