論文の概要: Deep Bayesian Gaussian Processes for Uncertainty Estimation in
Electronic Health Records
- arxiv url: http://arxiv.org/abs/2003.10170v1
- Date: Mon, 23 Mar 2020 10:36:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 23:31:57.154904
- Title: Deep Bayesian Gaussian Processes for Uncertainty Estimation in
Electronic Health Records
- Title(参考訳): 電子健康記録における不確実性推定のためのディープベイズガウス過程
- Authors: Yikuan Li, Shishir Rao, Abdelaali Hassaine, Rema Ramakrishnan, Yajie
Zhu, Dexter Canoy, Gholamreza Salimi-Khorshidi, Thomas Lukasiewicz, Kazem
Rahimi
- Abstract要約: 我々はディープ・ベイズ学習フレームワークの特徴とディープ・カーネル・ラーニングを融合させ、より包括的な不確実性推定に両手法の強みを活用する。
我々は,不均衡なデータセットにおけるマイノリティクラスにおいて,過度に信頼された予測を行うことに対して,我々の手法はより感受性が低いことを示す。
- 参考スコア(独自算出の注目度): 30.65770563934045
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One major impediment to the wider use of deep learning for clinical decision
making is the difficulty of assigning a level of confidence to model
predictions. Currently, deep Bayesian neural networks and sparse Gaussian
processes are the main two scalable uncertainty estimation methods. However,
deep Bayesian neural network suffers from lack of expressiveness, and more
expressive models such as deep kernel learning, which is an extension of sparse
Gaussian process, captures only the uncertainty from the higher level latent
space. Therefore, the deep learning model under it lacks interpretability and
ignores uncertainty from the raw data. In this paper, we merge features of the
deep Bayesian learning framework with deep kernel learning to leverage the
strengths of both methods for more comprehensive uncertainty estimation.
Through a series of experiments on predicting the first incidence of heart
failure, diabetes and depression applied to large-scale electronic medical
records, we demonstrate that our method is better at capturing uncertainty than
both Gaussian processes and deep Bayesian neural networks in terms of
indicating data insufficiency and distinguishing true positive and false
positive predictions, with a comparable generalisation performance.
Furthermore, by assessing the accuracy and area under the receiver operating
characteristic curve over the predictive probability, we show that our method
is less susceptible to making overconfident predictions, especially for the
minority class in imbalanced datasets. Finally, we demonstrate how uncertainty
information derived by the model can inform risk factor analysis towards model
interpretability.
- Abstract(参考訳): 臨床的意思決定にディープラーニングを広く活用する上での大きな障害のひとつは、モデル予測に信頼度を割り当てることの難しさである。
現在、ディープベイズニューラルネットワークとスパースガウス過程は、2つのスケーラブルな不確実性推定方法である。
しかし、ディープベイズ型ニューラルネットワークは表現力の欠如に苦しんでおり、疎ガウス過程の拡張であるディープ・カーネル・ラーニングのようなより表現力のあるモデルでは、高レベルな潜在空間から不確かさのみをキャプチャする。
したがって、深層学習モデルは解釈可能性に欠け、生データから不確実性を無視する。
本稿では,深層ベイズ学習フレームワークの特徴と深層カーネル学習を融合し,両手法の強みを活かし,より包括的不確実性推定を行う。
大規模電子カルテに応用された心不全,糖尿病,うつ病の発生率の予測に関する一連の実験を通じて,本手法はガウス過程と深部ベイズニューラルネットワークよりも,データ不足を示し,真の正と偽の正の予測を同一の一般化性能で識別できることを示す。
さらに,予測確率よりも,受信者の動作特性曲線の精度と面積を評価することにより,不均衡データセットのマイノリティクラスにおいて,信頼度の高い予測を行う傾向が小さくなることを示す。
最後に,モデルから導かれる不確実性情報が,モデル解釈可能性に対するリスク要因分析にどのように影響を与えるかを示す。
関連論文リスト
- Deep Evidential Learning for Radiotherapy Dose Prediction [0.0]
本稿では放射線治療用線量予測分野におけるDeep Evidential Learningと呼ばれる不確実性定量化フレームワークの新たな応用法を提案する。
このモデルは,ネットワークトレーニング完了時の予測誤差と相関関係を持つ不確実性推定に有効に活用できることを見出した。
論文 参考訳(メタデータ) (2024-04-26T02:43:45Z) - Tractable Function-Space Variational Inference in Bayesian Neural
Networks [72.97620734290139]
ニューラルネットワークの予測不確かさを推定するための一般的なアプローチは、ネットワークパラメータに対する事前分布を定義することである。
本稿では,事前情報を組み込むスケーラブルな関数空間変動推論手法を提案する。
提案手法は,様々な予測タスクにおいて,最先端の不確実性評価と予測性能をもたらすことを示す。
論文 参考訳(メタデータ) (2023-12-28T18:33:26Z) - Evidential Deep Learning: Enhancing Predictive Uncertainty Estimation
for Earth System Science Applications [0.32302664881848275]
エビデンシャル・ディープ・ラーニング(Evidential Deep Learning)は、パラメトリック・ディープ・ラーニングを高次分布に拡張する手法である。
本研究では,明らかなニューラルネットワークから得られる不確実性とアンサンブルから得られる不確実性を比較する。
本研究では,従来の手法に匹敵する予測精度を実現するとともに,両方の不確実性源をしっかりと定量化しながら,明らかな深層学習モデルを示す。
論文 参考訳(メタデータ) (2023-09-22T23:04:51Z) - Neural State-Space Models: Empirical Evaluation of Uncertainty
Quantification [0.0]
本稿では,ニューラル状態空間モデルを用いたシステム同定のための不確実性定量化に関する予備的結果を示す。
ベイズ確率的設定で学習問題をフレーム化し、ニューラルネットワークの重みと出力の後方分布を求める。
後部に基づいて,出力の信頼区間を構築し,潜在的に危険なアウト・オブ・ディストリビューション体制下でモデルの使用を効果的に診断できるサプライズ指標を定義する。
論文 参考訳(メタデータ) (2023-04-13T08:57:33Z) - Looking at the posterior: accuracy and uncertainty of neural-network
predictions [0.0]
予測精度はてんかんとアレタリック不確実性の両方に依存している。
本稿では,共通不確実性に基づく手法よりも優れた新たな獲得関数を提案する。
論文 参考訳(メタデータ) (2022-11-26T16:13:32Z) - The Unreasonable Effectiveness of Deep Evidential Regression [72.30888739450343]
不確実性を考慮した回帰ベースニューラルネットワーク(NN)による新しいアプローチは、従来の決定論的手法や典型的なベイズ的NNよりも有望であることを示している。
我々は、理論的欠点を詳述し、合成および実世界のデータセットのパフォーマンスを分析し、Deep Evidential Regressionが正確な不確実性ではなく定量化であることを示す。
論文 参考訳(メタデータ) (2022-05-20T10:10:32Z) - Dense Uncertainty Estimation [62.23555922631451]
本稿では,ニューラルネットワークと不確実性推定手法について検討し,正確な決定論的予測と確実性推定の両方を実現する。
本研究では,アンサンブルに基づく手法と生成モデルに基づく手法の2つの不確実性推定法について検討し,それらの長所と短所を,完全/半端/弱度に制御されたフレームワークを用いて説明する。
論文 参考訳(メタデータ) (2021-10-13T01:23:48Z) - Quantifying Predictive Uncertainty in Medical Image Analysis with Deep
Kernel Learning [14.03923026690186]
本研究では,予測の不確かさを推定できる不確実性を考慮した深層カーネル学習モデルを提案する。
ほとんどの場合、提案したモデルは一般的なアーキテクチャよりも優れた性能を示している。
私たちのモデルは、挑戦的で議論の余地のあるテストサンプルを検出するためにも使用できます。
論文 参考訳(メタデータ) (2021-06-01T17:09:47Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Discriminative Jackknife: Quantifying Uncertainty in Deep Learning via
Higher-Order Influence Functions [121.10450359856242]
我々は、モデル損失関数の影響関数を利用して、予測信頼区間のジャックニフェ(または、アウト・ワン・アウト)推定器を構築する頻繁な手順を開発する。
1)および(2)を満たすDJは、幅広いディープラーニングモデルに適用可能であり、実装が容易であり、モデルトレーニングに干渉したり、精度を妥協したりすることなく、ポストホックな方法で適用することができる。
論文 参考訳(メタデータ) (2020-06-29T13:36:52Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。