論文の概要: Quantifying Uncertainty for Machine Learning Based Diagnostic
- arxiv url: http://arxiv.org/abs/2107.14261v1
- Date: Thu, 29 Jul 2021 18:13:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-02 21:21:31.634968
- Title: Quantifying Uncertainty for Machine Learning Based Diagnostic
- Title(参考訳): 機械学習に基づく診断における不確かさの定量化
- Authors: Owen Convery, Lewis Smith, Yarin Gal, Adi Hanuka
- Abstract要約: 我々はアンサンブル法と量子回帰ニューラルネットワークを用いて、SLACのLinac Coherent Light Sourceからの実験データに対する予測の不確実性の生成と解析を行う。
我々は、電子ビームの現在のプロファイルまたは長手位相空間像を正確かつ確実に予測することを目指している。
- 参考スコア(独自算出の注目度): 28.499029801148545
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Virtual Diagnostic (VD) is a deep learning tool that can be used to predict a
diagnostic output. VDs are especially useful in systems where measuring the
output is invasive, limited, costly or runs the risk of damaging the output.
Given a prediction, it is necessary to relay how reliable that prediction is.
This is known as 'uncertainty quantification' of a prediction. In this paper,
we use ensemble methods and quantile regression neural networks to explore
different ways of creating and analyzing prediction's uncertainty on
experimental data from the Linac Coherent Light Source at SLAC. We aim to
accurately and confidently predict the current profile or longitudinal phase
space images of the electron beam. The ability to make informed decisions under
uncertainty is crucial for reliable deployment of deep learning tools on
safety-critical systems as particle accelerators.
- Abstract(参考訳): 仮想診断(VD)は、診断出力を予測するために使用できるディープラーニングツールである。
VDは特に、出力の測定が侵入的、制限され、コストがかかるシステムや、出力を傷つけるリスクを負うシステムで有用である。
予測を考えると、その予測がどの程度信頼できるかを伝える必要がある。
これは予測の「不確かさ定量化」として知られている。
本稿では,SLACにおけるLinac Coherent Light Sourceの実験データに対する予測の不確実性の生成と解析を行うために,アンサンブル法と量子回帰ニューラルネットワークを用いる。
我々は、電子ビームの現在のプロファイルまたは長手位相空間像を正確かつ確実に予測することを目指している。
不確実性の下で情報的決定を行う能力は、ディープラーニングツールを粒子加速器として安全クリティカルなシステムに確実に展開するために重要である。
関連論文リスト
- SepsisLab: Early Sepsis Prediction with Uncertainty Quantification and Active Sensing [67.8991481023825]
セプシスは米国での院内死亡の主な原因である。
既存の予測モデルは通常、情報不足の少ない高品質なデータで訓練される。
限られた観察により信頼性の低い高リスク患者に対して,ロバストな能動センシングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-07-24T04:47:36Z) - Uncertainty Quantification for Forward and Inverse Problems of PDEs via
Latent Global Evolution [110.99891169486366]
本稿では,効率的かつ高精度な不確実性定量化を深層学習に基づく代理モデルに統合する手法を提案する。
本手法は,フォワード問題と逆問題の両方に対して,堅牢かつ効率的な不確実性定量化機能を備えたディープラーニングに基づく代理モデルを提案する。
提案手法は, 長期予測を含むシナリオに適合し, 拡張された自己回帰ロールアウトに対する不確かさの伝播に優れる。
論文 参考訳(メタデータ) (2024-02-13T11:22:59Z) - Inadequacy of common stochastic neural networks for reliable clinical
decision support [0.4262974002462632]
医療意思決定におけるAIの普及は、倫理的および安全性に関する懸念から、いまだに妨げられている。
しかし、一般的なディープラーニングアプローチは、データシフトによる過信傾向にある。
本研究は臨床応用における信頼性について考察する。
論文 参考訳(メタデータ) (2024-01-24T18:49:30Z) - Tractable Function-Space Variational Inference in Bayesian Neural
Networks [72.97620734290139]
ニューラルネットワークの予測不確かさを推定するための一般的なアプローチは、ネットワークパラメータに対する事前分布を定義することである。
本稿では,事前情報を組み込むスケーラブルな関数空間変動推論手法を提案する。
提案手法は,様々な予測タスクにおいて,最先端の不確実性評価と予測性能をもたらすことを示す。
論文 参考訳(メタデータ) (2023-12-28T18:33:26Z) - LMD: Light-weight Prediction Quality Estimation for Object Detection in
Lidar Point Clouds [3.927702899922668]
Lidarのクラウドデータのオブジェクト検出は、自動運転とロボット工学にとって有望な技術だ。
不確実性推定は下流タスクにとって重要な要素であり、ディープニューラルネットワークは信頼性の高い予測であってもエラーを起こしやすい。
予測品質推定のための軽量後処理方式LidarMetaDetectを提案する。
本実験は,偽予測から真を分離する際の統計的信頼性を著しく向上させることを示した。
論文 参考訳(メタデータ) (2023-06-13T15:13:29Z) - Neural State-Space Models: Empirical Evaluation of Uncertainty
Quantification [0.0]
本稿では,ニューラル状態空間モデルを用いたシステム同定のための不確実性定量化に関する予備的結果を示す。
ベイズ確率的設定で学習問題をフレーム化し、ニューラルネットワークの重みと出力の後方分布を求める。
後部に基づいて,出力の信頼区間を構築し,潜在的に危険なアウト・オブ・ディストリビューション体制下でモデルの使用を効果的に診断できるサプライズ指標を定義する。
論文 参考訳(メタデータ) (2023-04-13T08:57:33Z) - Uncertainty-Aware AB3DMOT by Variational 3D Object Detection [74.8441634948334]
不確実性推定は統計的に正確な予測を提供する効果的なツールである。
本稿では,変分ニューラルネットワークを用いたTANet 3Dオブジェクト検出器を提案し,不確実性のある3Dオブジェクト検出を行う。
論文 参考訳(メタデータ) (2023-02-12T14:30:03Z) - Prediction-Powered Inference [68.97619568620709]
予測を用いた推論は、実験データセットに機械学習システムからの予測を補足した場合に有効な統計的推論を行うためのフレームワークである。
このフレームワークは、手段、量子、線形およびロジスティック回帰係数などの量に対して証明可能な信頼区間を計算するための単純なアルゴリズムを生成する。
予測による推論により、研究者は機械学習を使用して、より有効な、よりデータ効率の高い結論を導き出すことができる。
論文 参考訳(メタデータ) (2023-01-23T18:59:28Z) - Interpretable Self-Aware Neural Networks for Robust Trajectory
Prediction [50.79827516897913]
本稿では,意味概念間で不確実性を分散する軌道予測のための解釈可能なパラダイムを提案する。
実世界の自動運転データに対する我々のアプローチを検証し、最先端のベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-16T06:28:20Z) - Interpreting Uncertainty in Model Predictions For COVID-19 Diagnosis [0.0]
新型コロナウイルス(COVID-19)は、一般的なラボスワブ検査に加えて、診断の迅速化に補助ツールを使用する必要性が高まっている。
従来の畳み込みネットワークは、不確実性の捕捉に欠ける予測に点推定を用いる。
ベイジアン畳み込みニューラルネットワークを用いて計算された予測の不確実性を考慮した,不確実性とそのコンポーネントの解釈可能性に対処する可視化フレームワークを開発した。
論文 参考訳(メタデータ) (2020-10-26T01:27:29Z) - Probabilistic Neighbourhood Component Analysis: Sample Efficient
Uncertainty Estimation in Deep Learning [25.8227937350516]
トレーニングデータの量が少ない場合,最先端のBNNとDeep Ensembleモデルの不確実性推定能力は著しく低下することを示す。
サンプル効率の高い非パラメトリックkNN手法の確率的一般化を提案する。
我々のアプローチは、深いkNNがその予測において根底にある不確かさを正確に定量化することを可能にする。
論文 参考訳(メタデータ) (2020-07-18T21:36:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。