論文の概要: Uncertainty Quantification in Neural Differential Equations
- arxiv url: http://arxiv.org/abs/2111.04207v1
- Date: Mon, 8 Nov 2021 00:09:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-10 03:16:39.965215
- Title: Uncertainty Quantification in Neural Differential Equations
- Title(参考訳): ニューラル微分方程式の不確かさの定量化
- Authors: Olga Graf, Pablo Flores, Pavlos Protopapas, Karim Pichara
- Abstract要約: 不確実性定量化(UQ)は、収集された観測と不確実なドメイン知識に基づいて信頼できる予測を行うのに役立つ。
我々は、DECソリューションの予測不確実性を得るために、最先端のUQ手法をいくつか適用する。
- 参考スコア(独自算出の注目度): 3.291910356217187
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Uncertainty quantification (UQ) helps to make trustworthy predictions based
on collected observations and uncertain domain knowledge. With increased usage
of deep learning in various applications, the need for efficient UQ methods
that can make deep models more reliable has increased as well. Among
applications that can benefit from effective handling of uncertainty are the
deep learning based differential equation (DE) solvers. We adapt several
state-of-the-art UQ methods to get the predictive uncertainty for DE solutions
and show the results on four different DE types.
- Abstract(参考訳): 不確実性定量化(UQ)は、収集された観測と不確実なドメイン知識に基づいて信頼できる予測を行うのに役立つ。
様々なアプリケーションにおけるディープラーニングの利用の増加に伴い、深層モデルの信頼性を高める効率的なUQ手法の必要性も高まっている。
不確実性の効果的な処理から恩恵を受けるアプリケーションには、deep learning based differential equation (de) solversがある。
我々は、DECソリューションの予測不確実性を得るためにいくつかの最先端UQ手法を適用し、4つの異なるDECタイプの結果を示す。
関連論文リスト
- Using Uncertainty Quantification to Characterize and Improve Out-of-Domain Learning for PDEs [44.890946409769924]
ニューラル演算子(NO)は特に有望な量子化として出現している。
本研究では,複数のNOをアンサンブルすることで,高いエラー領域を同定し,不確実性の高い推定を行うことができることを示す。
次に、ProbConservフレームワーク内でこれらのよく校正されたUQ推定を使ってモデルを更新するOperator-ProbConservを紹介します。
論文 参考訳(メタデータ) (2024-03-15T19:21:27Z) - Uncertainty Quantification for Forward and Inverse Problems of PDEs via
Latent Global Evolution [110.99891169486366]
本稿では,効率的かつ高精度な不確実性定量化を深層学習に基づく代理モデルに統合する手法を提案する。
本手法は,フォワード問題と逆問題の両方に対して,堅牢かつ効率的な不確実性定量化機能を備えたディープラーニングに基づく代理モデルを提案する。
提案手法は, 長期予測を含むシナリオに適合し, 拡張された自己回帰ロールアウトに対する不確かさの伝播に優れる。
論文 参考訳(メタデータ) (2024-02-13T11:22:59Z) - Uncertainty quantification for deep learning-based schemes for solving
high-dimensional backward stochastic differential equations [5.883258964010963]
深層学習に基づくBSDEスキームのクラスに対する不確実性定量化(UQ)について検討する。
アルゴリズムの単一実行のみを用いて近似解のSTDを効率的に推定するUQモデルを開発した。
数値実験により,UQモデルは近似解の平均とSTDの信頼性の高い推定値を生成することが示された。
論文 参考訳(メタデータ) (2023-10-05T09:00:48Z) - A Survey on Uncertainty Quantification Methods for Deep Learning [7.102893202197349]
不確かさ定量化(UQ)は、予測精度以上のDNN予測の信頼性を推定することを目的としている。
本稿では,DNNに対するUQ手法の系統分類を,不確実性源の種類に基づいて提案する。
我々は、我々のUQ方法論の分類が、異なる機械学習問題におけるUQ手法の選択を導くのにどのように役立つかを示す。
論文 参考訳(メタデータ) (2023-02-26T22:30:08Z) - Quantifying Uncertainty in Deep Spatiotemporal Forecasting [67.77102283276409]
本稿では,正規格子法とグラフ法という2種類の予測問題について述べる。
我々はベイジアンおよび頻繁な視点からUQ法を解析し、統計的決定理論を通じて統一的な枠組みを提示する。
実際の道路ネットワークのトラフィック、疫病、空気質予測タスクに関する広範な実験を通じて、異なるUQ手法の統計計算トレードオフを明らかにする。
論文 参考訳(メタデータ) (2021-05-25T14:35:46Z) - Multivariate Deep Evidential Regression [77.34726150561087]
不確実性を認識するニューラルネットワークによる新しいアプローチは、従来の決定論的手法よりも有望である。
本稿では,レグレッションベースニューラルネットワークからアレータ性およびてんかん性不確かさを抽出する手法を提案する。
論文 参考訳(メタデータ) (2021-04-13T12:20:18Z) - Fast Uncertainty Quantification for Deep Object Pose Estimation [91.09217713805337]
深層学習に基づくオブジェクトポーズ推定は、しばしば信頼できない、自信過剰である。
本研究では,6-DoFオブジェクトのポーズ推定のための,シンプルで効率的かつプラグアンドプレイなUQ手法を提案する。
論文 参考訳(メタデータ) (2020-11-16T06:51:55Z) - Cross Learning in Deep Q-Networks [82.20059754270302]
本稿では、値に基づく強化学習手法において、よく知られた過大評価問題を緩和することを目的とした、新しいクロスQ-ラーニングアルゴリズムを提案する。
本アルゴリズムは,並列モデルの集合を維持し,ランダムに選択されたネットワークに基づいてQ値を算出することによって,二重Q-ラーニングに基づいて構築する。
論文 参考訳(メタデータ) (2020-09-29T04:58:17Z) - Uncertainty Quantification Using Neural Networks for Molecular Property
Prediction [33.34534208450156]
複数の相補的な性能指標を用いて,5つのベンチマークデータセット上で複数の手法を体系的に評価した。
テストしたどのメソッドも他のどのメソッドよりも絶対的に優れているわけではなく、複数のデータセットにまたがって特に信頼性の高いエラーランキングを生成するものもありません。
我々は,既存の技術が他とよく関係しているように見えるものについて,実践的な勧告で結論付けている。
論文 参考訳(メタデータ) (2020-05-20T13:31:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。