論文の概要: Explainable AI for survival analysis: a median-SHAP approach
- arxiv url: http://arxiv.org/abs/2402.00072v1
- Date: Tue, 30 Jan 2024 20:47:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-02 18:03:37.899512
- Title: Explainable AI for survival analysis: a median-SHAP approach
- Title(参考訳): 生存分析のための説明可能なAI:中央値SHAPアプローチ
- Authors: Lucile Ter-Minassian, Sahra Ghalebikesabi, Karla Diaz-Ordaz and Chris
Holmes
- Abstract要約: 平均アンカー点を用いるという慣習は、生存分析の誤解を招く可能性がある。
我々は,個々の生存時間を予測するブラックボックスモデルを記述する手法であるCentral-SHAPを紹介する。
- 参考スコア(独自算出の注目度): 2.94944680995069
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: With the adoption of machine learning into routine clinical practice comes
the need for Explainable AI methods tailored to medical applications. Shapley
values have sparked wide interest for locally explaining models. Here, we
demonstrate their interpretation strongly depends on both the summary statistic
and the estimator for it, which in turn define what we identify as an 'anchor
point'. We show that the convention of using a mean anchor point may generate
misleading interpretations for survival analysis and introduce median-SHAP, a
method for explaining black-box models predicting individual survival times.
- Abstract(参考訳): 日常的な臨床実践に機械学習が採用されると、医学的応用に合わせた説明可能なaiメソッドが必要になる。
シェープ価値は、局所的なモデルの説明に広く関心を呼んだ。
ここでは、それらの解釈は、要約統計量とそれに対する推定量の両方に強く依存しており、その結果、我々が'アンカーポイント'と認識するものを定義する。
平均アンカーポイントの使用規約は,生存時間を予測するブラックボックスモデルを記述する手法である中央値SHAPを導入し,生存分析の誤解を招く可能性があることを示す。
関連論文リスト
- XForecast: Evaluating Natural Language Explanations for Time Series Forecasting [72.57427992446698]
時系列予測は、特に正確な予測に依存するステークホルダーにとって、意思決定を支援する。
伝統的に説明可能なAI(XAI)メソッドは、機能や時間的重要性を基盤とするものであり、専門家の知識を必要とすることが多い。
時系列データにおける複雑な因果関係のため,予測NLEの評価は困難である。
論文 参考訳(メタデータ) (2024-10-18T05:16:39Z) - Interpretable Prediction and Feature Selection for Survival Analysis [18.987678432106563]
我々は、強い差別と解釈可能性の両方を達成する新しい生存分析モデルであるDyS(dice'と発音する)を提示する。
DySは、特徴選択と解釈可能な予測を1つのモデルに組み合わせた、機能スパースな一般化付加モデルである。
論文 参考訳(メタデータ) (2024-04-23T02:36:54Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Interpreting Differentiable Latent States for Healthcare Time-series
Data [4.581930518669275]
本稿では,高関係な入力特徴を用いて潜時状態の解釈を可能にする簡潔なアルゴリズムを提案する。
本手法により、実世界の医療データセットにおける夜間行動を予測するために、昼間の行動パターンを識別できることを示す。
論文 参考訳(メタデータ) (2023-11-29T11:48:16Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Understanding Post-hoc Explainers: The Case of Anchors [6.681943980068051]
本稿では,テキストの判断を説明するために,少数の単語群をハイライトする規則に基づく解釈可能性法の理論解析を行う。
アルゴリズムを定式化し有用な洞察を提供した後、数学的にアンカーが有意義な結果をもたらすことを示す。
論文 参考訳(メタデータ) (2023-03-15T17:56:34Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - SurvSHAP(t): Time-dependent explanations of machine learning survival
models [6.950862982117125]
SurvSHAP(t)は、生存可能なブラックボックスモデルの解釈を可能にする最初の時間依存的な説明である。
合成および医療データの実験により、SurvSHAP(t)が時間依存効果で変数を検出できることが確認された。
我々はPythonで時間に依存した説明のアクセス可能な実装を提供する。
論文 参考訳(メタデータ) (2022-08-23T17:01:14Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Have We Learned to Explain?: How Interpretability Methods Can Learn to
Encode Predictions in their Interpretations [20.441578071446212]
解釈を定量的に評価する手法としてEVAL-X、償却説明法としてREAL-Xを紹介します。
EVAL-Xは、予測が解釈にエンコードされたときに検出でき、定量的および放射線学者評価を通じてREAL-Xの利点を示す。
論文 参考訳(メタデータ) (2021-03-02T17:42:33Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。