論文の概要: MindfulLIME: A Stable Solution for Explanations of Machine Learning Models with Enhanced Localization Precision -- A Medical Image Case Study
- arxiv url: http://arxiv.org/abs/2503.20758v1
- Date: Tue, 25 Mar 2025 14:48:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-27 13:21:15.295897
- Title: MindfulLIME: A Stable Solution for Explanations of Machine Learning Models with Enhanced Localization Precision -- A Medical Image Case Study
- Title(参考訳): MindfulLIME: 局所化精度を向上した機械学習モデルの説明のための安定したソリューション - 医療画像ケーススタディ
- Authors: Shakiba Rahimiaghdam, Hande Alemdar,
- Abstract要約: グラフベースのプルーニングアルゴリズムと不確実性サンプリングを用いて視覚的説明を生成する新しいアルゴリズムであるMindfulLIMEを提案する。
胸部X線データセットを用いて実験を行い,MindfulLIMEの安定性を100%成功率で確認した。
MindfulLIMEは、生成された説明と実際のローカルアノテーションの間の距離を減らすことで、視覚的説明のローカライズ精度を向上させる。
- 参考スコア(独自算出の注目度): 0.7373617024876725
- License:
- Abstract: Ensuring transparency in machine learning decisions is critically important, especially in sensitive sectors such as healthcare, finance, and justice. Despite this, some popular explainable algorithms, such as Local Interpretable Model-agnostic Explanations (LIME), often produce unstable explanations due to the random generation of perturbed samples. Random perturbation introduces small changes or noise to modified instances of the original data, leading to inconsistent explanations. Even slight variations in the generated samples significantly affect the explanations provided by such models, undermining trust and hindering the adoption of interpretable models. To address this challenge, we propose MindfulLIME, a novel algorithm that intelligently generates purposive samples using a graph-based pruning algorithm and uncertainty sampling. MindfulLIME substantially improves the consistency of visual explanations compared to random sampling approaches. Our experimental evaluation, conducted on a widely recognized chest X-ray dataset, confirms MindfulLIME's stability with a 100% success rate in delivering reliable explanations under identical conditions. Additionally, MindfulLIME improves the localization precision of visual explanations by reducing the distance between the generated explanations and the actual local annotations compared to LIME. We also performed comprehensive experiments considering various segmentation algorithms and sample numbers, focusing on stability, quality, and efficiency. The results demonstrate the outstanding performance of MindfulLIME across different segmentation settings, generating fewer high-quality samples within a reasonable processing time. By addressing the stability limitations of LIME in image data, MindfulLIME enhances the trustworthiness and interpretability of machine learning models in specific medical imaging applications, a critical domain.
- Abstract(参考訳): 機械学習の意思決定における透明性の確保は、特に医療、金融、正義といった繊細な分野において、極めて重要である。
これにもかかわらず、Local Interpretable Model-Agnostic Explanations (LIME) のような一般的な説明可能なアルゴリズムでは、乱れたサンプルがランダムに生成されるため不安定な説明がしばしば発生する。
ランダム摂動は、元のデータの修正されたインスタンスに小さな変更やノイズを導入し、矛盾した説明をもたらす。
生成されたサンプルのわずかなバリエーションでさえ、そのようなモデルが提供する説明に大きく影響し、信頼を損なうとともに、解釈可能なモデルの採用を妨げる。
この課題に対処するために,グラフベースのプルーニングアルゴリズムと不確実性サンプリングを用いて,探索サンプルをインテリジェントに生成する新しいアルゴリズムであるMindfulLIMEを提案する。
MindfulLIMEは、ランダムサンプリングアプローチと比較して、視覚的説明の一貫性を大幅に改善する。
胸部X線データセットを用いて行った実験により,MindfulLIMEの安定性を100%成功率で確認し,同一条件下で信頼性の高い説明を行うことができた。
さらに、MindfulLIMEは、生成された説明と実際の局所アノテーションの間の距離をLIMEと比較することにより、視覚的説明の局所化精度を向上させる。
また,様々なセグメンテーションアルゴリズムやサンプル数を考慮した総合的な実験を行い,安定性,品質,効率性に着目した。
結果は,異なるセグメンテーション設定におけるMindfulLIMEの卓越した性能を示し,適切な処理時間内に高品質なサンプルを生成できることを示した。
画像データにおけるLIMEの安定性の限界に対処することにより、MindfulLIMEは特定の医療画像アプリケーションにおける機械学習モデルの信頼性と解釈可能性を高める。
関連論文リスト
- A Hybrid Framework for Statistical Feature Selection and Image-Based Noise-Defect Detection [55.2480439325792]
本稿では,統計的特徴選択と分類技術を統合し,欠陥検出精度を向上させるハイブリッドフレームワークを提案する。
工業画像から抽出した55個の特徴を統計的手法を用いて解析した。
これらの手法をフレキシブルな機械学習アプリケーションに統合することにより、検出精度を改善し、偽陽性や誤分類を減らす。
論文 参考訳(メタデータ) (2024-12-11T22:12:21Z) - PseudoNeg-MAE: Self-Supervised Point Cloud Learning using Conditional Pseudo-Negative Embeddings [55.55445978692678]
PseudoNeg-MAEは,ポイントマスク自動エンコーダのグローバルな特徴表現を強化する,自己教師型学習フレームワークである。
PseudoNeg-MAE は ModelNet40 と ScanObjectNN のデータセット上で最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-09-24T07:57:21Z) - Informed Correctors for Discrete Diffusion Models [31.814439169033616]
本稿では, 近似誤差をより確実に対応させるために, 拡散モデルにより補正器が通知される予測器・補正器サンプリング方式を提案する。
トークン化された ImageNet 256x256 において、この手法はより少ないステップで優れたサンプルを生成し、離散拡散モデルのFIDスコアを改良した。
論文 参考訳(メタデータ) (2024-07-30T23:29:29Z) - Counterfactual Fairness through Transforming Data Orthogonal to Bias [7.109458605736819]
我々は新しいデータ前処理アルゴリズムOrthogonal to Bias (OB)を提案する。
OBは、連続的な敏感な変数群の影響を排除し、機械学習アプリケーションにおける反ファクトフェアネスを促進するように設計されている。
OBはモデルに依存しないため、幅広い機械学習モデルやタスクに適用できる。
論文 参考訳(メタデータ) (2024-03-26T16:40:08Z) - Explaining Predictive Uncertainty with Information Theoretic Shapley
Values [6.49838460559032]
我々は、様々な種類の予測の不確実性を説明するために、人気のShapley値フレームワークを適用します。
我々は,実データおよびシミュレーションデータに対して,様々な実験でよく動作する効率的なアルゴリズムを実装した。
論文 参考訳(メタデータ) (2023-06-09T07:43:46Z) - Generating detailed saliency maps using model-agnostic methods [0.0]
本稿では, モデルに依存しない RISE 法に着目し, グリッドベースアプローチの欠点を詳細に考察する。
VRISE (Voronoi-RISE) と呼ばれる修正は、大きなオクルージョンを用いて生成された地図の精度を向上させることを目的としている。
ILSVRC2012の検証分割において, VRISE と RISE が生成したサリエンシマップの精度を比較した。
論文 参考訳(メタデータ) (2022-09-04T21:34:46Z) - Equivariance Allows Handling Multiple Nuisance Variables When Analyzing
Pooled Neuroimaging Datasets [53.34152466646884]
本稿では,構造空間上でインスタンス化された同変表現学習における最近の結果と,因果推論における古典的結果の簡易な利用が,いかに効果的に実現されたかを示す。
いくつかの仮定の下で、我々のモデルが複数のニュアンス変数を扱えることを実証し、そうでなければサンプルの大部分を取り除く必要のあるシナリオにおいて、プールされた科学データセットの分析を可能にする。
論文 参考訳(メタデータ) (2022-03-29T04:54:06Z) - Generalization of Neural Combinatorial Solvers Through the Lens of
Adversarial Robustness [68.97830259849086]
ほとんどのデータセットは単純なサブプロブレムのみをキャプチャし、おそらくは突発的な特徴に悩まされる。
本研究では, 局所的な一般化特性である対向ロバスト性について検討し, 厳密でモデル固有な例と突発的な特徴を明らかにする。
他のアプリケーションとは異なり、摂動モデルは知覚できないという主観的な概念に基づいて設計されているため、摂動モデルは効率的かつ健全である。
驚くべきことに、そのような摂動によって、十分に表現力のあるニューラルソルバは、教師あり学習で共通する正確さと悪質さのトレードオフの限界に悩まされない。
論文 参考訳(メタデータ) (2021-10-21T07:28:11Z) - Multiplicative noise and heavy tails in stochastic optimization [62.993432503309485]
経験的最適化は現代の機械学習の中心であるが、その成功における役割はまだ不明である。
分散による離散乗法雑音のパラメータによく現れることを示す。
最新のステップサイズやデータを含む重要な要素について、詳細な分析を行い、いずれも最先端のニューラルネットワークモデルで同様の結果を示す。
論文 参考訳(メタデータ) (2020-06-11T09:58:01Z) - Instability, Computational Efficiency and Statistical Accuracy [101.32305022521024]
我々は,人口レベルでのアルゴリズムの決定論的収束率と,$n$サンプルに基づく経験的対象に適用した場合の(不安定性)の間の相互作用に基づいて,統計的精度を得るフレームワークを開発する。
本稿では,ガウス混合推定,非線形回帰モデル,情報的非応答モデルなど,いくつかの具体的なモデルに対する一般結果の応用について述べる。
論文 参考訳(メタデータ) (2020-05-22T22:30:52Z) - A Modified Perturbed Sampling Method for Local Interpretable
Model-agnostic Explanation [35.281127405430674]
LIME(Local Interpretable Model-Agnostic Explanation)は、任意の分類器の予測を忠実に説明する手法である。
本稿では,LIME (MPS-LIME) のための改良型摂動サンプリング操作を提案する。
画像分類において、MPS-LIMEはスーパーピクセル画像を非方向グラフに変換する。
論文 参考訳(メタデータ) (2020-02-18T09:03:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。