論文の概要: OptiLIME: Optimized LIME Explanations for Diagnostic Computer Algorithms
- arxiv url: http://arxiv.org/abs/2006.05714v3
- Date: Mon, 7 Feb 2022 19:21:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 04:03:12.814763
- Title: OptiLIME: Optimized LIME Explanations for Diagnostic Computer Algorithms
- Title(参考訳): OptiLIME:診断計算機アルゴリズムのための最適LIME記述法
- Authors: Giorgio Visani, Enrico Bagli, Federico Chesani
- Abstract要約: LIME(Local Interpretable Model-Agnostic Explanations)は、機械学習(ML)モデルの解釈可能性を実現する一般的な手法である。
LIMEは様々な領域に広がっているが、その不安定性は大きな欠点の1つである。
既定の従順性を維持しつつ,安定性を最大化する枠組みを提案する。
- 参考スコア(独自算出の注目度): 2.570261777174546
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Local Interpretable Model-Agnostic Explanations (LIME) is a popular method to
perform interpretability of any kind of Machine Learning (ML) model. It
explains one ML prediction at a time, by learning a simple linear model around
the prediction. The model is trained on randomly generated data points, sampled
from the training dataset distribution and weighted according to the distance
from the reference point - the one being explained by LIME. Feature selection
is applied to keep only the most important variables. LIME is widespread across
different domains, although its instability - a single prediction may obtain
different explanations - is one of the major shortcomings. This is due to the
randomness in the sampling step, as well as to the flexibility in tuning the
weights and determines a lack of reliability in the retrieved explanations,
making LIME adoption problematic. In Medicine especially, clinical
professionals trust is mandatory to determine the acceptance of an explainable
algorithm, considering the importance of the decisions at stake and the related
legal issues. In this paper, we highlight a trade-off between explanation's
stability and adherence, namely how much it resembles the ML model. Exploiting
our innovative discovery, we propose a framework to maximise stability, while
retaining a predefined level of adherence. OptiLIME provides freedom to choose
the best adherence-stability trade-off level and more importantly, it clearly
highlights the mathematical properties of the retrieved explanation. As a
result, the practitioner is provided with tools to decide whether the
explanation is reliable, according to the problem at hand. We extensively test
OptiLIME on a toy dataset - to present visually the geometrical findings - and
a medical dataset. In the latter, we show how the method comes up with
meaningful explanations both from a medical and mathematical standpoint.
- Abstract(参考訳): LIME(Local Interpretable Model-Agnostic Explanations)は、機械学習(ML)モデルの解釈可能性を実現する一般的な手法である。
予測に関する単純な線形モデルを学ぶことで、一度に1つのML予測を説明する。
モデルはランダムに生成されたデータポイントに基づいてトレーニングされ、トレーニングデータセットの分布からサンプリングされ、基準ポイントからの距離に応じて重み付けされる。
最も重要な変数のみを保持するために、特徴選択が適用される。
LIMEは異なるドメインにまたがっているが、その不安定さ(単一の予測は異なる説明を得る可能性がある)は大きな欠点の1つである。
これはサンプリングステップのランダム性に加えて、ウェイトをチューニングし、検索した説明の信頼性の欠如を判断し、LIMEの採用が問題となるためである。
医学において、特に臨床専門家信頼は、その決定の重要性と関連する法的問題を考慮して、説明可能なアルゴリズムの受容を決定する義務がある。
本稿では,説明の安定性と順守のトレードオフ,すなわちMLモデルにどの程度似ているかを明らかにする。
革新的発見を活用し, 既定の遵守レベルを維持しつつ, 安定性を最大化する枠組みを提案する。
OptiLIMEは、最良の順守-安定トレードオフレベルを選択する自由を提供し、さらに重要なのは、検索された説明の数学的性質を明確に強調することである。
その結果、手元にある問題に応じて、説明が信頼できるかどうかを判断するツールが提供される。
我々は,オプティLIMEをおもちゃのデータセット(幾何学的発見を視覚的に提示する)と医療データセットで広範囲にテストした。
後者では、医学的・数学的観点から有意義な説明を導き出す方法を示す。
関連論文リスト
- Using Large Language Models for Expert Prior Elicitation in Predictive Modelling [53.54623137152208]
本研究では,大規模言語モデル (LLM) を用いて予測モデルの事前分布を推定する手法を提案する。
本研究では,LLMがパラメータ分布を真に生成するかどうかを評価するとともに,文脈内学習と事前推論のためのモデル選択戦略を提案する。
その結果,LLMによる事前パラメータ分布は,低データ設定における非形式的先行よりも予測誤差を著しく低減することがわかった。
論文 参考訳(メタデータ) (2024-11-26T10:13:39Z) - Uncertainty Estimation of Large Language Models in Medical Question Answering [60.72223137560633]
大規模言語モデル(LLM)は、医療における自然言語生成の約束を示すが、事実的に誤った情報を幻覚させるリスクがある。
医学的問合せデータセットのモデルサイズが異なる人気不確実性推定(UE)手法をベンチマークする。
以上の結果から,本領域における現在のアプローチは,医療応用におけるUEの課題を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-07-11T16:51:33Z) - Cycles of Thought: Measuring LLM Confidence through Stable Explanations [53.15438489398938]
大規模言語モデル(LLM)は、様々なベンチマークで人間レベルの精度に到達し、さらに超えることができるが、不正確な応答における過度な自信は、依然として十分に文書化された障害モードである。
本稿では,LLMの不確実性を測定するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T16:35:30Z) - LaPLACE: Probabilistic Local Model-Agnostic Causal Explanations [1.0370398945228227]
本稿では,機械学習モデルに対する確率論的原因・効果説明を提供するLaPLACE-Explainerを紹介する。
LaPLACE-Explainerコンポーネントはマルコフ毛布の概念を利用して、関連する特徴と非関連する特徴の間の統計的境界を確立する。
提案手法は,LIME と SHAP の局所的精度と特徴の整合性の観点から,因果的説明と性能を向上する。
論文 参考訳(メタデータ) (2023-10-01T04:09:59Z) - Interpretable Medical Diagnostics with Structured Data Extraction by
Large Language Models [59.89454513692417]
タブラルデータはしばしばテキストに隠され、特に医学的診断報告に使用される。
本稿では,TEMED-LLM と呼ばれるテキスト医療報告から構造化表状データを抽出する手法を提案する。
本手法は,医学診断における最先端のテキスト分類モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-08T09:12:28Z) - Topological Interpretability for Deep-Learning [0.30806551485143496]
ディープラーニング(DL)モデルは、予測の確実性を定量化できない。
本研究は,臨床および非臨床のテキストに基づいて訓練された2つのDL分類モデルにおいて,特徴を推測する手法を提案する。
論文 参考訳(メタデータ) (2023-05-15T13:38:13Z) - Near-optimal Offline Reinforcement Learning with Linear Representation:
Leveraging Variance Information with Pessimism [65.46524775457928]
オフライン強化学習は、オフライン/歴史的データを活用して、シーケンシャルな意思決定戦略を最適化しようとしている。
線形モデル表現を用いたオフライン強化学習の統計的限界について検討する。
論文 参考訳(メタデータ) (2022-03-11T09:00:12Z) - Scrutinizing XAI using linear ground-truth data with suppressor
variables [0.8602553195689513]
重要度」の指標による入力特徴のランク付け方法
予測対象(圧力変数)と統計的に無関係な特徴を強調できるサリエンシ法が存在することが実証されている。
論文 参考訳(メタデータ) (2021-11-14T23:02:02Z) - Locally Interpretable Model Agnostic Explanations using Gaussian
Processes [2.9189409618561966]
LIME(Local Interpretable Model-Agnostic Explanations)は、単一インスタンスの予測を説明する一般的なテクニックである。
局所的解釈可能なモデルのガウス過程(GP)に基づくバリエーションを提案する。
提案手法は,LIMEに比べてはるかに少ないサンプルを用いて忠実な説明を生成可能であることを示す。
論文 参考訳(メタデータ) (2021-08-16T05:49:01Z) - An Information-Theoretic Approach to Personalized Explainable Machine
Learning [92.53970625312665]
本稿では,予測とユーザ知識のための簡易確率モデルを提案する。
説明と予測の間の条件付き相互情報による説明の効果を定量化する。
論文 参考訳(メタデータ) (2020-03-01T13:06:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。