論文の概要: Uncertainty Quantification for Forward and Inverse Problems of PDEs via
Latent Global Evolution
- arxiv url: http://arxiv.org/abs/2402.08383v1
- Date: Tue, 13 Feb 2024 11:22:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-14 15:41:46.469709
- Title: Uncertainty Quantification for Forward and Inverse Problems of PDEs via
Latent Global Evolution
- Title(参考訳): 潜在グローバル進化によるPDEの前方・逆問題に対する不確かさの定量化
- Authors: Tailin Wu, Willie Neiswanger, Hongtao Zheng, Stefano Ermon, Jure
Leskovec
- Abstract要約: 本稿では,効率的かつ高精度な不確実性定量化を深層学習に基づく代理モデルに統合する手法を提案する。
本手法は,フォワード問題と逆問題の両方に対して,堅牢かつ効率的な不確実性定量化機能を備えたディープラーニングに基づく代理モデルを提案する。
提案手法は, 長期予測を含むシナリオに適合し, 拡張された自己回帰ロールアウトに対する不確かさの伝播に優れる。
- 参考スコア(独自算出の注目度): 110.99891169486366
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning-based surrogate models have demonstrated remarkable advantages
over classical solvers in terms of speed, often achieving speedups of 10 to
1000 times over traditional partial differential equation (PDE) solvers.
However, a significant challenge hindering their widespread adoption in both
scientific and industrial domains is the lack of understanding about their
prediction uncertainties, particularly in scenarios that involve critical
decision making. To address this limitation, we propose a method that
integrates efficient and precise uncertainty quantification into a deep
learning-based surrogate model. Our method, termed Latent Evolution of PDEs
with Uncertainty Quantification (LE-PDE-UQ), endows deep learning-based
surrogate models with robust and efficient uncertainty quantification
capabilities for both forward and inverse problems. LE-PDE-UQ leverages latent
vectors within a latent space to evolve both the system's state and its
corresponding uncertainty estimation. The latent vectors are decoded to provide
predictions for the system's state as well as estimates of its uncertainty. In
extensive experiments, we demonstrate the accurate uncertainty quantification
performance of our approach, surpassing that of strong baselines including deep
ensembles, Bayesian neural network layers, and dropout. Our method excels at
propagating uncertainty over extended auto-regressive rollouts, making it
suitable for scenarios involving long-term predictions. Our code is available
at: https://github.com/AI4Science-WestlakeU/le-pde-uq.
- Abstract(参考訳): 深層学習に基づくサロゲートモデルは、従来の偏微分方程式(PDE)よりも10倍から1000倍のスピードアップを達成することができる。
しかし、科学分野と産業分野の両方で広く採用されることを妨げる重要な課題は、その予測の不確実性、特に重要な意思決定を伴うシナリオに対する理解の欠如である。
この制限に対処するために, 効率的かつ高精度な不確実性定量化を深層学習に基づく代理モデルに統合する手法を提案する。
提案手法は,不確実性量子化を伴うPDEの潜在進化(LE-PDE-UQ)と呼ばれ,前向きおよび逆問題の両方に対して,堅牢かつ効率的な不確実性量子化能力を持つディープラーニングに基づく代理モデルを提供する。
LE-PDE-UQは潜時空間内の潜時ベクトルを活用し、系の状態とそれに対応する不確実性推定の両方を進化させる。
潜在ベクトルは、システムの状態の予測と不確実性の推定を提供するためにデコードされる。
広汎な実験では,深層アンサンブル,ベイズニューラルネットワーク層,ドロップアウトなど,強いベースラインを超越した,アプローチの正確な不確実性定量化性能を示す。
提案手法は,長期予測を含むシナリオに適合し,拡張された自動回帰ロールアウトに対する不確かさの伝播に優れる。
私たちのコードは、https://github.com/ai4science-westlakeu/le-pde-uqで利用可能です。
関連論文リスト
- Uncertainty Calibration with Energy Based Instance-wise Scaling in the Wild Dataset [23.155946032377052]
エネルギーモデルに基づく新しいインスタンスワイドキャリブレーション手法を提案する。
本手法は,ソフトマックス信頼性スコアの代わりにエネルギースコアを組み込むことにより,不確実性を考慮した適応的な検討を可能にする。
実験では,提案手法はスペクトル間のロバストな性能を一貫して維持することを示した。
論文 参考訳(メタデータ) (2024-07-17T06:14:55Z) - Evaluating Uncertainty Quantification approaches for Neural PDEs in
scientific applications [0.0]
この研究は、科学応用におけるフォワード問題と逆問題の両方に対する様々な不確実量化(UQ)アプローチを評価する。
具体的には,ハミルトン・モンテカルロ (HMC) やモンテカルロ・ドロップアウト (MCD) などのベイズ法の有効性を検討する。
この結果から,ニューラルPDEは流れ系を効果的に再構築し,関連する未知パラメータを予測できることが示唆された。
論文 参考訳(メタデータ) (2023-11-08T04:52:20Z) - Toward Reliable Human Pose Forecasting with Uncertainty [51.628234388046195]
我々は、複数のモデルを含む人間のポーズ予測のためのオープンソースのライブラリを開発し、複数のデータセットをサポートする。
我々は、パフォーマンスを高め、より良い信頼をもたらすために、問題の2つの不確実性を考案する。
論文 参考訳(メタデータ) (2023-04-13T17:56:08Z) - Neural State-Space Models: Empirical Evaluation of Uncertainty
Quantification [0.0]
本稿では,ニューラル状態空間モデルを用いたシステム同定のための不確実性定量化に関する予備的結果を示す。
ベイズ確率的設定で学習問題をフレーム化し、ニューラルネットワークの重みと出力の後方分布を求める。
後部に基づいて,出力の信頼区間を構築し,潜在的に危険なアウト・オブ・ディストリビューション体制下でモデルの使用を効果的に診断できるサプライズ指標を定義する。
論文 参考訳(メタデータ) (2023-04-13T08:57:33Z) - Interpretable Self-Aware Neural Networks for Robust Trajectory
Prediction [50.79827516897913]
本稿では,意味概念間で不確実性を分散する軌道予測のための解釈可能なパラダイムを提案する。
実世界の自動運転データに対する我々のアプローチを検証し、最先端のベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-16T06:28:20Z) - The Unreasonable Effectiveness of Deep Evidential Regression [72.30888739450343]
不確実性を考慮した回帰ベースニューラルネットワーク(NN)による新しいアプローチは、従来の決定論的手法や典型的なベイズ的NNよりも有望であることを示している。
我々は、理論的欠点を詳述し、合成および実世界のデータセットのパフォーマンスを分析し、Deep Evidential Regressionが正確な不確実性ではなく定量化であることを示す。
論文 参考訳(メタデータ) (2022-05-20T10:10:32Z) - Quantifying Uncertainty in Deep Spatiotemporal Forecasting [67.77102283276409]
本稿では,正規格子法とグラフ法という2種類の予測問題について述べる。
我々はベイジアンおよび頻繁な視点からUQ法を解析し、統計的決定理論を通じて統一的な枠組みを提示する。
実際の道路ネットワークのトラフィック、疫病、空気質予測タスクに関する広範な実験を通じて、異なるUQ手法の統計計算トレードオフを明らかにする。
論文 参考訳(メタデータ) (2021-05-25T14:35:46Z) - Accurate and Reliable Forecasting using Stochastic Differential
Equations [48.21369419647511]
ディープラーニングモデルにとって、現実世界の環境に浸透する不確実性を適切に特徴付けることは、非常に困難である。
本論文では,HNNの予測平均と分散の相互作用を特徴づけるSDE-HNNを開発した。
本手法は,予測性能と不確実性定量化の両方の観点から,最先端のベースラインを著しく上回ることを示す。
論文 参考訳(メタデータ) (2021-03-28T04:18:11Z) - SDE-Net: Equipping Deep Neural Networks with Uncertainty Estimates [45.43024126674237]
不確かさの定量化は、ディープラーニングの根本的かつ未解決な問題である。
ベイズフレームワークは不確実性推定の原則的方法を提供するが、現代のディープニューラルネット(DNN)には拡張性がないことが多い
動的システムの観点からDNNの不確かさを定量化する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-08-24T16:33:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。