論文の概要: Interpretable Additive Recurrent Neural Networks For Multivariate
Clinical Time Series
- arxiv url: http://arxiv.org/abs/2109.07602v1
- Date: Wed, 15 Sep 2021 22:30:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-17 14:13:33.226793
- Title: Interpretable Additive Recurrent Neural Networks For Multivariate
Clinical Time Series
- Title(参考訳): 多変量臨床時系列のための解釈可能な再帰的ニューラルネットワーク
- Authors: Asif Rahman, Yale Chang, Jonathan Rubin
- Abstract要約: 本稿では,モデル内の変数間の関係を加法的に強制することで,モデルの複雑性と精度のバランスをとるInterpretable-RNN(I-RNN)を提案する。
I-RNNは、時間内に不均一にサンプリングされ、非同期に取得され、データが欠落している臨床時系列の特徴を特に捉えている。
本研究は,院内死亡率予測のためのPhysoronet 2012 ChallengeデータセットのI-RNNモデルと,集中治療室における血行動態の介入を予測するリアルな臨床診断支援タスクについて評価する。
- 参考スコア(独自算出の注目度): 4.125698836261585
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Time series models with recurrent neural networks (RNNs) can have high
accuracy but are unfortunately difficult to interpret as a result of
feature-interactions, temporal-interactions, and non-linear transformations.
Interpretability is important in domains like healthcare where constructing
models that provide insight into the relationships they have learned are
required to validate and trust model predictions. We want accurate time series
models where users can understand the contribution of individual input
features. We present the Interpretable-RNN (I-RNN) that balances model
complexity and accuracy by forcing the relationship between variables in the
model to be additive. Interactions are restricted between hidden states of the
RNN and additively combined at the final step. I-RNN specifically captures the
unique characteristics of clinical time series, which are unevenly sampled in
time, asynchronously acquired, and have missing data. Importantly, the hidden
state activations represent feature coefficients that correlate with the
prediction target and can be visualized as risk curves that capture the global
relationship between individual input features and the outcome. We evaluate the
I-RNN model on the Physionet 2012 Challenge dataset to predict in-hospital
mortality, and on a real-world clinical decision support task: predicting
hemodynamic interventions in the intensive care unit. I-RNN provides
explanations in the form of global and local feature importances comparable to
highly intelligible models like decision trees trained on hand-engineered
features while significantly outperforming them. I-RNN remains intelligible
while providing accuracy comparable to state-of-the-art decay-based and
interpolation-based recurrent time series models. The experimental results on
real-world clinical datasets refute the myth that there is a tradeoff between
accuracy and interpretability.
- Abstract(参考訳): リカレントニューラルネットワーク(RNN)を用いた時系列モデルは精度が高いが、機能相互作用、時間的相互作用、非線形変換の結果、残念ながら解釈が困難である。
モデルの予測を検証し信頼するために、彼らが学んだ関係について洞察を提供するモデルを構築する必要があるヘルスケアのような領域では、解釈可能性が重要である。
ユーザが個々の入力機能の貢献を理解できる正確な時系列モデルが欲しい。
本稿では,モデル内の変数間の関係を加法的に強制することで,モデルの複雑性と精度のバランスをとるInterpretable-RNN(I-RNN)を提案する。
相互作用はRNNの隠れ状態間で制限され、最終段階で追加的に結合される。
I-RNNは、時間内に不均一にサンプリングされ、非同期に取得され、データが欠落している臨床時系列の特徴を特に捉えている。
重要なことは、隠れ状態のアクティベーションは予測目標と相関する特徴係数を表し、個々の入力特徴と結果のグローバルな関係を捉える危険曲線として視覚化することができる。
病院内死亡率予測のためのphysionet 2012 challengeデータセットのi-rnnモデルと,集中治療室における血行動態の介入を予測する実世界臨床判断支援タスクの評価を行った。
I-RNNは、手作業で訓練された決定木のような非常に知的なモデルに匹敵する、グローバルかつ局所的な特徴の重要性の形で説明を提供する。
I-RNNは、最先端の崩壊ベースおよび補間ベースの反復時系列モデルに匹敵する精度を保ちながら、理解できないままである。
実世界の臨床データセットにおける実験結果は、正確性と解釈可能性の間にはトレードオフがあるという神話を反論する。
関連論文リスト
- Explainable Spatio-Temporal GCNNs for Irregular Multivariate Time Series: Architecture and Application to ICU Patient Data [7.433698348783128]
XST-CNN(eXG-Temporal Graph Conal Neural Network)は、不均一で不規則なマルチ時系列(MTS)データを処理するための新しいアーキテクチャである。
提案手法は,GCNNパイプラインを利用して時間的・時間的統合パイプライン内での時間的特徴を捉える。
ICU患者のマルチドラッグ抵抗(MDR)を予測するために,実世界の電子健康記録データを用いてXST-CNNを評価した。
論文 参考訳(メタデータ) (2024-11-01T22:53:17Z) - Probabilistic Neural Networks (PNNs) for Modeling Aleatoric Uncertainty
in Scientific Machine Learning [2.348041867134616]
本稿では,確率論的ニューラルネットワーク(PNN)を用いてアレータティック不確実性をモデル化する。
PNNはターゲット変数の確率分布を生成し、回帰シナリオにおける予測平均と間隔の両方を決定できる。
実世界の科学機械学習の文脈では、PNNはR2乗のスコアが0.97に近づき、その予測間隔は0.80に近い高い相関係数を示す。
論文 参考訳(メタデータ) (2024-02-21T17:15:47Z) - Uncertainty-Aware Deep Attention Recurrent Neural Network for
Heterogeneous Time Series Imputation [0.25112747242081457]
欠落は多変量時系列においてユビキタスであり、信頼できる下流分析の障害となる。
本稿では、欠落した値とその関連不確かさを共同で推定するDeep Attention Recurrent Imputation (Imputation)を提案する。
実験の結果,実世界のデータセットを用いた多様な計算タスクにおいて,SOTAを上回っていることがわかった。
論文 参考訳(メタデータ) (2024-01-04T13:21:11Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Continuous time recurrent neural networks: overview and application to
forecasting blood glucose in the intensive care unit [56.801856519460465]
連続時間自己回帰リカレントニューラルネットワーク(Continuous Time Autoregressive Recurrent Neural Network, CTRNN)は、不規則な観測を考慮に入れたディープラーニングモデルである。
重篤なケア環境下での血糖値の確率予測へのこれらのモデルの適用を実証する。
論文 参考訳(メタデータ) (2023-04-14T09:39:06Z) - Probabilistic AutoRegressive Neural Networks for Accurate Long-range
Forecasting [6.295157260756792]
確率的自己回帰ニューラルネットワーク(PARNN)について紹介する。
PARNNは、非定常性、非線形性、非調和性、長距離依存、カオスパターンを示す複雑な時系列データを扱うことができる。
本研究では,Transformers,NBeats,DeepARなどの標準統計モデル,機械学習モデル,ディープラーニングモデルに対して,PARNNの性能を評価する。
論文 参考訳(メタデータ) (2022-04-01T17:57:36Z) - Discovering Invariant Rationales for Graph Neural Networks [104.61908788639052]
グラフニューラルネットワーク(GNN)の固有の解釈可能性とは、入力グラフの特徴の小さなサブセットを見つけることである。
本稿では,本質的に解釈可能なGNNを構築するために,不変理性(DIR)を発見するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2022-01-30T16:43:40Z) - Generalizing Graph Neural Networks on Out-Of-Distribution Graphs [51.33152272781324]
トレーニンググラフとテストグラフの分散シフトを考慮せずにグラフニューラルネットワーク(GNN)を提案する。
このような環境では、GNNは、たとえ素早い相関であるとしても、予測のためのトレーニングセットに存在する微妙な統計的相関を利用する傾向がある。
本稿では,スプリアス相関の影響を排除するため,StableGNNと呼ばれる一般的な因果表現フレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-20T18:57:18Z) - ARM-Net: Adaptive Relation Modeling Network for Structured Data [29.94433633729326]
ARM-Netは、構造化データに適した適応関係モデリングネットワークであり、リレーショナルデータのためのARM-Netに基づく軽量フレームワークARMORである。
ARM-Netは既存のモデルより一貫して優れており、データセットに対してより解釈可能な予測を提供する。
論文 参考訳(メタデータ) (2021-07-05T07:37:24Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z) - Neural Additive Models: Interpretable Machine Learning with Neural Nets [77.66871378302774]
ディープニューラルネットワーク(DNN)は、さまざまなタスクにおいて優れたパフォーマンスを達成した強力なブラックボックス予測器である。
本稿では、DNNの表現性と一般化した加法モデルの固有知性を組み合わせたニューラル付加モデル(NAM)を提案する。
NAMは、ニューラルネットワークの線形結合を学び、それぞれが単一の入力機能に付随する。
論文 参考訳(メタデータ) (2020-04-29T01:28:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。