論文の概要: Introducing δ-XAI: a novel sensitivity-based method for local AI explanations
- arxiv url: http://arxiv.org/abs/2407.18343v2
- Date: Mon, 29 Jul 2024 13:25:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-30 12:35:35.346087
- Title: Introducing δ-XAI: a novel sensitivity-based method for local AI explanations
- Title(参考訳): δ-XAI : 局所AI説明のための新しい感度に基づく手法
- Authors: Alessandro De Carlo, Enea Parimbelli, Nicola Melillo, Giovanna Nicora,
- Abstract要約: ハイパフォーマンスなAI/MLモデルは、しばしば解釈可能性に欠け、臨床医の予測に対する信頼を妨げている。
これを解決するために、AI/ML予測を人間の理解可能な言葉で記述するXAI技術が開発されている。
本稿では、デルタ指数を拡張してMLモデル予測の局所的な説明を提供する新しいデルタXAI法を提案する。
- 参考スコア(独自算出の注目度): 42.06878765569675
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Explainable Artificial Intelligence (XAI) is central to the debate on integrating Artificial Intelligence (AI) and Machine Learning (ML) algorithms into clinical practice. High-performing AI/ML models, such as ensemble learners and deep neural networks, often lack interpretability, hampering clinicians' trust in their predictions. To address this, XAI techniques are being developed to describe AI/ML predictions in human-understandable terms. One promising direction is the adaptation of sensitivity analysis (SA) and global sensitivity analysis (GSA), which inherently rank model inputs by their impact on predictions. Here, we introduce a novel delta-XAI method that provides local explanations of ML model predictions by extending the delta index, a GSA metric. The delta-XAI index assesses the impact of each feature's value on the predicted output for individual instances in both regression and classification problems. We formalize the delta-XAI index and provide code for its implementation. The delta-XAI method was evaluated on simulated scenarios using linear regression models, with Shapley values serving as a benchmark. Results showed that the delta-XAI index is generally consistent with Shapley values, with notable discrepancies in models with highly impactful or extreme feature values. The delta-XAI index demonstrated higher sensitivity in detecting dominant features and handling extreme feature values. Qualitatively, the delta-XAI provides intuitive explanations by leveraging probability density functions, making feature rankings clearer and more explainable for practitioners. Overall, the delta-XAI method appears promising for robustly obtaining local explanations of ML model predictions. Further investigations in real-world clinical settings will be conducted to evaluate its impact on AI-assisted clinical workflows.
- Abstract(参考訳): 説明可能な人工知能(XAI)は、人工知能(AI)と機械学習(ML)のアルゴリズムを臨床実践に統合する議論の中心である。
アンサンブル学習者やディープニューラルネットワークのようなハイパフォーマンスなAI/MLモデルは、解釈可能性に欠けることが多く、臨床医の予測に対する信頼を妨げている。
これを解決するために、AI/ML予測を人間の理解可能な言葉で記述するXAI技術が開発されている。
1つの有望な方向は、感度分析(SA)とグローバル感度分析(GSA)の適応であり、これは本質的にモデル入力が予測に与える影響によってランク付けされる。
本稿では,GSA測度であるデルタ指数を拡張することで,MLモデル予測の局所的な説明を提供する新しいデルタXAI手法を提案する。
デルタXAI指数は、回帰問題と分類問題の両方において、各特徴値が個々のインスタンスの予測出力に与える影響を評価する。
我々はデルタXAIインデックスを形式化し、その実装のためのコードを提供する。
デルタXAI法は線形回帰モデルを用いてシミュレーションシナリオで評価され,シェープリー値がベンチマークとして機能した。
その結果、デルタXAI指数は概してシャプリー値と一致しており、非常に影響の強い特徴値や極端な特徴値を持つモデルでは顕著な相違が見られた。
デルタXAI指数は支配的特徴の検出と極端な特徴値の扱いにおいて高い感度を示した。
デルタXAIは、確率密度関数を活用することで直感的な説明を提供し、特徴ランキングをより明確化し、実践者にとってより説明しやすいものにしている。
全体として、デルタXAI法は、MLモデル予測の局所的な説明をしっかりと得ることを約束しているようである。
実世界の臨床環境に関するさらなる調査は、AI支援臨床ワークフローへの影響を評価するために行われる。
関連論文リスト
- Explainable Artificial Intelligence for Dependent Features: Additive Effects of Collinearity [0.0]
本稿では,コリナリティ問題を考慮した新しいXAI手法として,コリナリティの付加効果(AEC)を提案する。
提案手法はシミュレーションデータと実データを用いて,芸術的XAI法と比較し,その効率性を検証した。
論文 参考訳(メタデータ) (2024-10-30T07:00:30Z) - Robustness of Explainable Artificial Intelligence in Industrial Process Modelling [43.388607981317016]
我々は,地中真実シミュレーションと感度解析に基づいて,現在のXAI手法を評価する。
モデル化された産業プロセスの真の感度を正確に予測する能力において,XAI法とXAI法の違いを示す。
論文 参考訳(メタデータ) (2024-07-12T09:46:26Z) - Explainable AI for Enhancing Efficiency of DL-based Channel Estimation [1.0136215038345013]
人工知能に基づく意思決定のサポートは、将来の6Gネットワークの重要な要素である。
このようなアプリケーションでは、ブラックボックスモデルとしてAIを使用するのは危険で難しい。
本稿では,無線通信におけるチャネル推定を目的とした新しいXAI-CHESTフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-09T16:24:21Z) - Precise Benchmarking of Explainable AI Attribution Methods [0.0]
本稿では,最新のXAI属性手法のベンチマークのための新しい評価手法を提案する。
提案手法は, 基礎的真理の説明を伴う合成分類モデルから成り立っている。
実験の結果, Guided-Backprop 法と Smoothgrad XAI 法の性能に関する新たな知見が得られた。
論文 参考訳(メタデータ) (2023-08-06T17:03:32Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - An Experimental Investigation into the Evaluation of Explainability
Methods [60.54170260771932]
この研究は、9つの最先端XAI法と3つのダミー法(例えば、ランダム・サリエンシ・マップ)に適用された14の異なるメトリクスを比較した。
実験の結果、これらの指標のどれが高い相関関係を示し、潜在的な冗長性を示している。
論文 参考訳(メタデータ) (2023-05-25T08:07:07Z) - Metric Tools for Sensitivity Analysis with Applications to Neural
Networks [0.0]
説明可能な人工知能(XAI)は、機械学習モデルによる予測の解釈を提供することを目的としている。
本稿では,計量手法を用いてMLモデルの感性を研究するための理論的枠組みを提案する。
$alpha$-curvesと呼ばれる新しいメトリクスの完全なファミリーが抽出される。
論文 参考訳(メタデータ) (2023-05-03T18:10:21Z) - Clinical Deterioration Prediction in Brazilian Hospitals Based on
Artificial Neural Networks and Tree Decision Models [56.93322937189087]
超強化ニューラルネットワーク(XBNet)は臨床劣化(CD)を予測するために用いられる
XGBoostモデルはブラジルの病院のデータからCDを予測する最良の結果を得た。
論文 参考訳(メタデータ) (2022-12-17T23:29:14Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。