論文の概要: Uncertainty-Aware Deep Ensembles for Reliable and Explainable
Predictions of Clinical Time Series
- arxiv url: http://arxiv.org/abs/2010.11310v1
- Date: Fri, 16 Oct 2020 10:32:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 22:17:58.344584
- Title: Uncertainty-Aware Deep Ensembles for Reliable and Explainable
Predictions of Clinical Time Series
- Title(参考訳): 臨床時系列の信頼性と説明可能な予測のための不確実性を考慮した深層アンサンブル
- Authors: Kristoffer Wickstr{\o}m, Karl {\O}yvind Mikalsen, Michael Kampffmeyer,
Arthur Revhaug, Robert Jenssen
- Abstract要約: 本稿では,深層学習に基づく時系列予測のための深層アンサンブル手法を提案する。
各モデルが生成する関連スコアに対して標準偏差をとることにより、関連スコアの不確実性の尺度を算出する。
以上の結果から,提案したアンサンブルは関連時間ステップの探索においてより正確であることが示唆された。
- 参考スコア(独自算出の注目度): 21.11327248500246
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning-based support systems have demonstrated encouraging results in
numerous clinical applications involving the processing of time series data.
While such systems often are very accurate, they have no inherent mechanism for
explaining what influenced the predictions, which is critical for clinical
tasks. However, existing explainability techniques lack an important component
for trustworthy and reliable decision support, namely a notion of uncertainty.
In this paper, we address this lack of uncertainty by proposing a deep ensemble
approach where a collection of DNNs are trained independently. A measure of
uncertainty in the relevance scores is computed by taking the standard
deviation across the relevance scores produced by each model in the ensemble,
which in turn is used to make the explanations more reliable. The class
activation mapping method is used to assign a relevance score for each time
step in the time series. Results demonstrate that the proposed ensemble is more
accurate in locating relevant time steps and is more consistent across random
initializations, thus making the model more trustworthy. The proposed
methodology paves the way for constructing trustworthy and dependable support
systems for processing clinical time series for healthcare related tasks.
- Abstract(参考訳): 深層学習に基づくサポートシステムは、時系列データの処理を含む多くの臨床応用において奨励的な結果を示してきた。
このようなシステムは、しばしば非常に正確であるが、その予測に何が影響したのかを説明する固有のメカニズムを持たない。
しかし、既存の説明可能性技術は信頼性と信頼性のある意思決定支援、すなわち不確実性の概念にとって重要な要素を欠いている。
本稿では,dnnの集合を独立に訓練する深層アンサンブルアプローチを提案することにより,この不確実性の欠如に対処する。
関連スコアにおける不確実性の尺度は、各モデルが生成する関連スコアの標準偏差をアンサンブルに当てはめ、説明をより信頼性の高いものにすることで計算される。
クラスアクティベーションマッピングメソッドは、時系列の各時間ステップの関連スコアを割り当てるために使用される。
その結果、提案手法は、関連する時間ステップの特定においてより正確であり、ランダム初期化間で一貫性があり、モデルがより信頼できるものとなる。
本提案手法は,医療関連業務における臨床時系列処理のための信頼性・信頼性の高い支援システムの構築方法である。
関連論文リスト
- Uncertainty-Aware Optimal Treatment Selection for Clinical Time Series [4.656302602746229]
本稿では,非現実的推定手法と不確実性定量化を組み合わせた新しい手法を提案する。
本手法は2つのシミュレーションデータセットを用いて検証し,1つは心血管系,もう1つはCOVID-19に焦点を当てた。
提案手法は, 異なる推定基準値にまたがって頑健な性能を示すことを示す。
論文 参考訳(メタデータ) (2024-10-11T13:56:25Z) - On the Identification of Temporally Causal Representation with Instantaneous Dependence [50.14432597910128]
時間的因果表現学習は時系列観測から潜在因果過程を特定することを目的としている。
ほとんどの方法は、潜在因果過程が即時関係を持たないという仮定を必要とする。
我々は,インスタントtextbfOus textbfLatent dynamics のための textbfIDentification フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-24T08:08:05Z) - Inadequacy of common stochastic neural networks for reliable clinical
decision support [0.4262974002462632]
医療意思決定におけるAIの普及は、倫理的および安全性に関する懸念から、いまだに妨げられている。
しかし、一般的なディープラーニングアプローチは、データシフトによる過信傾向にある。
本研究は臨床応用における信頼性について考察する。
論文 参考訳(メタデータ) (2024-01-24T18:49:30Z) - Likelihood Ratio Confidence Sets for Sequential Decision Making [51.66638486226482]
確率に基づく推論の原理を再検討し、確率比を用いて妥当な信頼シーケンスを構築することを提案する。
本手法は, 精度の高い問題に特に適している。
提案手法は,オンライン凸最適化への接続に光を当てることにより,推定器の最適シーケンスを確実に選択する方法を示す。
論文 参考訳(メタデータ) (2023-11-08T00:10:21Z) - Score Matching-based Pseudolikelihood Estimation of Neural Marked
Spatio-Temporal Point Process with Uncertainty Quantification [59.81904428056924]
我々は、不確実な定量化を伴うmarkPsを学習するためのスコアMAtching推定器であるSMASHを紹介する。
具体的には,スコアマッチングによるマークPsの擬似的類似度を推定することにより,正規化自由度を推定する。
提案手法の優れた性能は、事象予測と不確実性定量化の両方において広範な実験によって実証される。
論文 参考訳(メタデータ) (2023-10-25T02:37:51Z) - Benchmarking Scalable Epistemic Uncertainty Quantification in Organ
Segmentation [7.313010190714819]
モデル予測に関連する不確実性の定量化は 重要な臨床応用に不可欠です
自動臓器分割のためのディープラーニングに基づく手法は,診断と治療計画を支援する上で有望であることを示す。
医用画像解析設定においてどの方法が好ましいかは不明確である。
論文 参考訳(メタデータ) (2023-08-15T00:09:33Z) - Towards Reliable Medical Image Segmentation by utilizing Evidential Calibrated Uncertainty [52.03490691733464]
本稿では,医療画像セグメンテーションネットワークにシームレスに統合可能な,実装が容易な基礎モデルであるDEviSを紹介する。
主観的論理理論を利用して、医用画像分割の問題に対する確率と不確実性を明示的にモデル化する。
DeviSには不確実性を考慮したフィルタリングモジュールが組み込まれている。
論文 参考訳(メタデータ) (2023-01-01T05:02:46Z) - TACTiS: Transformer-Attentional Copulas for Time Series [76.71406465526454]
時間変化量の推定は、医療や金融などの分野における意思決定の基本的な構成要素である。
本稿では,アテンションベースデコーダを用いて関節分布を推定する多元的手法を提案する。
本研究では,本モデルが実世界の複数のデータセットに対して最先端の予測を生成することを示す。
論文 参考訳(メタデータ) (2022-02-07T21:37:29Z) - Uncertainty-Aware Multiple Instance Learning fromLarge-Scale Long Time
Series Data [20.2087807816461]
本稿では,最も関連性の高い周期自動識別のための不確実性認識型マルチインスタンス(MIL)フレームワークを提案する。
さらに、別のモデルを訓練し、不確実性を考慮した融合を行うことにより、信頼できない予測を調整できる別のモダリティを組み込む。
実験結果から, 提案手法は, 軌道に基づく容器の形状を効果的に検出できることを示した。
論文 参考訳(メタデータ) (2021-11-16T17:09:02Z) - On the Practicality of Deterministic Epistemic Uncertainty [106.06571981780591]
決定論的不確実性法(DUM)は,分布外データの検出において高い性能を達成する。
DUMが十分に校正されており、現実のアプリケーションにシームレスにスケールできるかどうかは不明だ。
論文 参考訳(メタデータ) (2021-07-01T17:59:07Z) - Benchmarking Deep Learning Interpretability in Time Series Predictions [41.13847656750174]
モデル予測における入力特徴の重要性を強調するために、サリエンシ法が広く用いられている。
そこで我々は,多様なニューラルアーキテクチャにまたがって,サリエンシに基づく様々な解釈可能性手法の性能を広範囲に比較した。
論文 参考訳(メタデータ) (2020-10-26T22:07:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。