論文の概要: Uncertainty quantification with approximate variational learning for wearable photoplethysmography prediction tasks
- arxiv url: http://arxiv.org/abs/2505.11412v1
- Date: Fri, 16 May 2025 16:21:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-19 14:36:15.57818
- Title: Uncertainty quantification with approximate variational learning for wearable photoplethysmography prediction tasks
- Title(参考訳): ウェアラブルフォトプレソグラフィー予測タスクにおける近似変分学習による不確かさ定量化
- Authors: Ciaran Bench, Vivek Desai, Mohammad Moulaeifard, Nils Strodthoff, Philip Aston, Andrew Thompson,
- Abstract要約: Photoplethysmographyは、血液の相対的な変化に関する情報を符号化する。
ディープネットワークは、ウェアラブル測定デバイスから取得した大量のデータを扱うのに適している。
- 参考スコア(独自算出の注目度): 0.8312466807725922
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Photoplethysmography (PPG) signals encode information about relative changes in blood volume that can be used to assess various aspects of cardiac health non-invasively, e.g.\ to detect atrial fibrillation (AF) or predict blood pressure (BP). Deep networks are well-equipped to handle the large quantities of data acquired from wearable measurement devices. However, they lack interpretability and are prone to overfitting, leaving considerable risk for poor performance on unseen data and misdiagnosis. Here, we describe the use of two scalable uncertainty quantification techniques: Monte Carlo Dropout and the recently proposed Improved Variational Online Newton. These techniques are used to assess the trustworthiness of models trained to perform AF classification and BP regression from raw PPG time series. We find that the choice of hyperparameters has a considerable effect on the predictive performance of the models and on the quality and composition of predicted uncertainties. E.g. the stochasticity of the model parameter sampling determines the proportion of the total uncertainty that is aleatoric, and has varying effects on predictive performance and calibration quality dependent on the chosen uncertainty quantification technique and the chosen expression of uncertainty. We find significant discrepancy in the quality of uncertainties over the predicted classes, emphasising the need for a thorough evaluation protocol that assesses local and adaptive calibration. This work suggests that the choice of hyperparameters must be carefully tuned to balance predictive performance and calibration quality, and that the optimal parameterisation may vary depending on the chosen expression of uncertainty.
- Abstract(参考訳): 光胸腺造影(PPG)は、心房細動(AF)の検出や血圧(BP)の予測に、非侵襲的に心臓健康の様々な側面を評価するのに使用できる血液量の相対的な変化に関する情報を符号化する。
ディープネットワークは、ウェアラブル測定デバイスから取得した大量のデータを扱うのに適している。
しかし、それらは解釈可能性に欠け、過度に適合する傾向があり、目に見えないデータや誤診に対するパフォーマンス低下のかなりのリスクを残している。
ここではモンテカルロ・ドロップアウトと最近提案された改良変分オンラインニュートンの2つのスケーラブルな不確実性定量化手法について述べる。
これらの手法は、生PSG時系列からAF分類とBP回帰を行うために訓練されたモデルの信頼性を評価するために用いられる。
ハイパーパラメータの選択はモデルの予測性能と予測された不確実性の品質と構成にかなりの影響を及ぼすことがわかった。
例えば、モデルパラメータサンプリングの確率性は、aleatoricである総不確実性の比率を決定し、選択された不確実性定量化技術と選択された不確実性の表現に依存する予測性能と校正品質に様々な影響を及ぼす。
我々は,局所的・適応的な校正を評価する徹底的な評価プロトコルの必要性を強調し,予測クラスに対する不確かさの質に重大な差があることを見出した。
この研究は、予測性能とキャリブレーション品質のバランスをとるために、ハイパーパラメータの選択を慎重に調整する必要があることを示唆し、最適なパラメータ化は不確実性の表現によって異なる可能性があることを示唆している。
関連論文リスト
- Hesitation is defeat? Connecting Linguistic and Predictive Uncertainty [2.8186733524862158]
本稿では,ルールベースのラベルラによってラベル付けされた自由テキストレポートから推定される予測不確実性と人・言語不確実性との関係について検討する。
その結果,予測的不確実性と言語的不確実性との間には緩やかな相関関係がみられ,機械の不確実性と人間の解釈を整合させる上での課題が浮き彫りにされた。
論文 参考訳(メタデータ) (2025-05-06T18:34:37Z) - Uncertainty Weighted Gradients for Model Calibration [22.39558434131574]
ディープネットワークは、しばしば過信または過信の予測を生成し、誤校正につながる。
そこで我々は, モデルキャリブレーションにおけるそれらの優位性を損失重み付け因子に主に寄与する, 焦点損失とその変種に対する統一的損失フレームワークを提案する。
本手法は,SOTA(State-of-the-art)性能を実現する。
論文 参考訳(メタデータ) (2025-03-26T04:16:05Z) - Achieving Well-Informed Decision-Making in Drug Discovery: A Comprehensive Calibration Study using Neural Network-Based Structure-Activity Models [4.619907534483781]
薬物と標的の相互作用を予測する計算モデルは、新しい治療薬の開発を加速するための貴重なツールである。
しかし、そのようなモデルはキャリブレーションが不十分であり、信頼性の低い不確実性推定をもたらす。
本研究では,ポストホックキャリブレーション法と不確実な定量化手法を組み合わせることで,モデルの精度とキャリブレーションを向上できることを示す。
論文 参考訳(メタデータ) (2024-07-19T10:29:00Z) - Quantifying predictive uncertainty of aphasia severity in stroke patients with sparse heteroscedastic Bayesian high-dimensional regression [47.1405366895538]
高次元データに対する疎線型回帰法は、通常、残留物が一定の分散を持つと仮定するが、これは実際には破ることができる。
本稿では,ヘテロセダスティック分割経験的ベイズ期待条件最大化アルゴリズムを用いて,高次元ヘテロセダスティック線形回帰モデルを推定する。
論文 参考訳(メタデータ) (2023-09-15T22:06:29Z) - Improving Trustworthiness of AI Disease Severity Rating in Medical
Imaging with Ordinal Conformal Prediction Sets [0.7734726150561088]
統計的に厳密な不確実性定量化の欠如は、AI結果の信頼を損なう重要な要因である。
分布自由不確実性定量化の最近の進歩は、これらの問題に対する実用的な解決策である。
本稿では, 正しい狭窄の重症度を含むことが保証される順序予測セットを形成する手法を実証する。
論文 参考訳(メタデータ) (2022-07-05T18:01:20Z) - Dense Uncertainty Estimation [62.23555922631451]
本稿では,ニューラルネットワークと不確実性推定手法について検討し,正確な決定論的予測と確実性推定の両方を実現する。
本研究では,アンサンブルに基づく手法と生成モデルに基づく手法の2つの不確実性推定法について検討し,それらの長所と短所を,完全/半端/弱度に制御されたフレームワークを用いて説明する。
論文 参考訳(メタデータ) (2021-10-13T01:23:48Z) - When in Doubt: Neural Non-Parametric Uncertainty Quantification for
Epidemic Forecasting [70.54920804222031]
既存の予測モデルは不確実な定量化を無視し、誤校正予測をもたらす。
不確実性を考慮した時系列予測のためのディープニューラルネットワークの最近の研究にもいくつかの制限がある。
本稿では,予測タスクを確率的生成過程としてモデル化し,EPIFNPと呼ばれる機能的ニューラルプロセスモデルを提案する。
論文 参考訳(メタデータ) (2021-06-07T18:31:47Z) - Increasing the efficiency of randomized trial estimates via linear
adjustment for a prognostic score [59.75318183140857]
ランダム化実験による因果効果の推定は臨床研究の中心である。
歴史的借用法のほとんどは、厳格なタイプiエラー率制御を犠牲にして分散の削減を達成する。
論文 参考訳(メタデータ) (2020-12-17T21:10:10Z) - Improving model calibration with accuracy versus uncertainty
optimization [17.056768055368384]
適切に校正されたモデルは、その予測が確実であるときに正確であり、不正確な場合に高い不確実性を示すべきである。
精度と不確実性の関係を不確実性校正のアンカーとして活用する最適化手法を提案する。
平均場変動推定によるアプローチの実証と最先端手法との比較を行った。
論文 参考訳(メタデータ) (2020-12-14T20:19:21Z) - Learning to Predict Error for MRI Reconstruction [67.76632988696943]
提案手法による予測の不確実性は予測誤差と強く相関しないことを示す。
本稿では,2段階の予測誤差の目標ラベルと大小を推定する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-02-13T15:55:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。