論文の概要: Can Attention Be Used to Explain EHR-Based Mortality Prediction Tasks: A
Case Study on Hemorrhagic Stroke
- arxiv url: http://arxiv.org/abs/2308.05110v1
- Date: Fri, 4 Aug 2023 04:28:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-14 00:22:09.872428
- Title: Can Attention Be Used to Explain EHR-Based Mortality Prediction Tasks: A
Case Study on Hemorrhagic Stroke
- Title(参考訳): 出血性脳卒中におけるEHRに基づく死亡予測課題の解明に留意すること
- Authors: Qizhang Feng, Jiayi Yuan, Forhan Bin Emdad, Karim Hanna, Xia Hu, Zhe
He
- Abstract要約: ストロークは死亡率と致死性の重大な原因であり、リスクを最小限に抑えるために早期予測戦略を必要とする。
従来の患者評価法は、精度と解釈可能性に制限がある。
本稿では,早期脳卒中死亡予測のための,解釈可能な注意に基づく変圧器モデルを提案する。
- 参考スコア(独自算出の注目度): 33.08002675910282
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Stroke is a significant cause of mortality and morbidity, necessitating early
predictive strategies to minimize risks. Traditional methods for evaluating
patients, such as Acute Physiology and Chronic Health Evaluation (APACHE II,
IV) and Simplified Acute Physiology Score III (SAPS III), have limited accuracy
and interpretability. This paper proposes a novel approach: an interpretable,
attention-based transformer model for early stroke mortality prediction. This
model seeks to address the limitations of previous predictive models, providing
both interpretability (providing clear, understandable explanations of the
model) and fidelity (giving a truthful explanation of the model's dynamics from
input to output). Furthermore, the study explores and compares fidelity and
interpretability scores using Shapley values and attention-based scores to
improve model explainability. The research objectives include designing an
interpretable attention-based transformer model, evaluating its performance
compared to existing models, and providing feature importance derived from the
model.
- Abstract(参考訳): ストロークは死亡率と死亡率の重要な原因であり、リスクを最小限に抑えるために早期予測戦略を必要とする。
急性生理・慢性健康評価(APACHE II, IV)や簡易急性生理スコアIII(SAPS III)などの患者評価法は,精度と解釈性に限界がある。
本稿では,早期脳卒中死亡予測のための解釈可能な注意に基づくトランスフォーマーモデルを提案する。
このモデルは、従来の予測モデルの限界に対処し、解釈可能性(モデルの明確で理解可能な説明を提供する)と忠実性(入力から出力へのモデルのダイナミクスの真理的な説明を与える)を提供する。
さらに,shapley値と注意に基づくスコアを用いて,モデルの説明可能性を改善するための忠実度スコアと解釈可能性スコアを探索・比較した。
研究の目的は、解釈可能な注意に基づくトランスフォーマーモデルを設計し、既存のモデルと比較して性能を評価し、モデルから派生した特徴的重要性を提供することである。
関連論文リスト
- PRECISe : Prototype-Reservation for Explainable Classification under Imbalanced and Scarce-Data Settings [0.0]
PreCISeは,3つの課題すべてに対処するために,簡潔に構築された説明可能な設計モデルである。
PreCISeは、マイノリティクラスへのデータ効率的な一般化において、現在の最先端メソッドよりも優れています。
ケーススタディでは、モデルが容易に解釈可能な予測を生成する能力を強調している。
論文 参考訳(メタデータ) (2024-08-11T12:05:32Z) - Deep State-Space Generative Model For Correlated Time-to-Event Predictions [54.3637600983898]
そこで本研究では,様々な種類の臨床イベント間の相互作用を捉えるために,潜伏状態空間生成モデルを提案する。
また,死亡率と臓器不全の関連性について有意な知見が得られた。
論文 参考訳(メタデータ) (2024-07-28T02:42:36Z) - A Comparative Analysis of Machine Learning Models for Early Detection of
Hospital-Acquired Infections [0.0]
感染リスク指数(IRI)と換気器関連肺炎(VAP)予測モデルを比較した。
IRIモデルはすべてのHAIを予測するために構築され、VAPモデルは人工呼吸器関連肺炎のリスクのある患者を特定する。
論文 参考訳(メタデータ) (2023-11-15T19:36:12Z) - Interpretable Survival Analysis for Heart Failure Risk Prediction [50.64739292687567]
現状の生存モデルと解釈可能かつ競合する新しい生存分析パイプラインを提案する。
我々のパイプラインは最先端のパフォーマンスを達成し、心不全のリスク要因に関する興味深い新しい洞察を提供する。
論文 参考訳(メタデータ) (2023-10-24T02:56:05Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - MedDiffusion: Boosting Health Risk Prediction via Diffusion-based Data
Augmentation [58.93221876843639]
本稿では,MedDiffusion という,エンドツーエンドの拡散に基づくリスク予測モデルを提案する。
トレーニング中に合成患者データを作成し、サンプルスペースを拡大することで、リスク予測性能を向上させる。
ステップワイズ・アテンション・メカニズムを用いて患者の来訪者間の隠れた関係を識別し、高品質なデータを生成する上で最も重要な情報をモデルが自動的に保持することを可能にする。
論文 参考訳(メタデータ) (2023-10-04T01:36:30Z) - Explainability of Traditional and Deep Learning Models on Longitudinal
Healthcare Records [0.0]
モデルと様々な説明可能性法の比較は十分に研究されていないため、説明可能性の厳密な評価は欠落することが多い。
我々の研究は、伝統的(XGBoost)と深層学習(LSTM with Attention)のモデル間の、グローバルおよび個人レベルの説明可能性のパフォーマンスを初めて評価した1つです。
論文 参考訳(メタデータ) (2022-11-22T04:39:17Z) - Benchmarking Heterogeneous Treatment Effect Models through the Lens of
Interpretability [82.29775890542967]
治療のパーソナライズされた効果を見積もるのは複雑だが、普及している問題である。
ヘテロジニアス処理効果推定に関する機械学習文献の最近の進歩は、洗練されたが不透明なツールの多くを生み出した。
我々は、ポストホックな特徴重要度法を用いて、モデルの予測に影響を及ぼす特徴を特定する。
論文 参考訳(メタデータ) (2022-06-16T17:59:05Z) - MIMIC-IF: Interpretability and Fairness Evaluation of Deep Learning
Models on MIMIC-IV Dataset [15.436560770086205]
MIMIC-IV (Medical Information Mart for Intensive Care, Version IV) は,医療データセットとして最大規模である。
本研究では,データセット表現バイアスの包括的解析と,深層学習モデルの解釈可能性と予測フェアネスを用いて,病院内死亡率予測を行う。
論文 参考訳(メタデータ) (2021-02-12T20:28:06Z) - Building Deep Learning Models to Predict Mortality in ICU Patients [0.0]
そこで本研究では,SAPS IIスコアと同じ特徴を用いた深層学習モデルを提案する。
よく知られた臨床データセットである医療情報マート(Medical Information Mart for Intensive Care III)に基づいていくつかの実験が行われている。
論文 参考訳(メタデータ) (2020-12-11T16:27:04Z) - A General Framework for Survival Analysis and Multi-State Modelling [70.31153478610229]
ニューラル常微分方程式を多状態生存モデル推定のためのフレキシブルで一般的な方法として用いる。
また,本モデルでは,サバイバルデータセット上での最先端性能を示すとともに,マルチステート環境での有効性を示す。
論文 参考訳(メタデータ) (2020-06-08T19:24:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。