論文の概要: B-PINNs: Bayesian Physics-Informed Neural Networks for Forward and
Inverse PDE Problems with Noisy Data
- arxiv url: http://arxiv.org/abs/2003.06097v1
- Date: Fri, 13 Mar 2020 04:00:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 01:05:24.841692
- Title: B-PINNs: Bayesian Physics-Informed Neural Networks for Forward and
Inverse PDE Problems with Noisy Data
- Title(参考訳): B-PINN:雑音データを用いた逆PDE問題に対するベイズ物理学情報ニューラルネットワーク
- Authors: Liu Yang, Xuhui Meng, George Em Karniadakis
- Abstract要約: 本稿では,物理インフォームドニューラルネットワーク(B-PINN)を提案する。
B-PINNは、物理法則と散乱ノイズの測定の両方を利用して、アレータリック不確かさの予測と定量化を行う。
- 参考スコア(独自算出の注目度): 7.33020629757864
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a Bayesian physics-informed neural network (B-PINN) to solve both
forward and inverse nonlinear problems described by partial differential
equations (PDEs) and noisy data. In this Bayesian framework, the Bayesian
neural network (BNN) combined with a PINN for PDEs serves as the prior while
the Hamiltonian Monte Carlo (HMC) or the variational inference (VI) could serve
as an estimator of the posterior. B-PINNs make use of both physical laws and
scattered noisy measurements to provide predictions and quantify the aleatoric
uncertainty arising from the noisy data in the Bayesian framework. Compared
with PINNs, in addition to uncertainty quantification, B-PINNs obtain more
accurate predictions in scenarios with large noise due to their capability of
avoiding overfitting. We conduct a systematic comparison between the two
different approaches for the B-PINN posterior estimation (i.e., HMC or VI),
along with dropout used for quantifying uncertainty in deep neural networks.
Our experiments show that HMC is more suitable than VI for the B-PINNs
posterior estimation, while dropout employed in PINNs can hardly provide
accurate predictions with reasonable uncertainty. Finally, we replace the BNN
in the prior with a truncated Karhunen-Lo\`eve (KL) expansion combined with HMC
or a deep normalizing flow (DNF) model as posterior estimators. The KL is as
accurate as BNN and much faster but this framework cannot be easily extended to
high-dimensional problems unlike the BNN based framework.
- Abstract(参考訳): 偏微分方程式(PDE)と雑音データにより記述された前方および逆非線形問題を解くためにベイズ物理学情報ニューラルネットワーク(B-PINN)を提案する。
このベイズ的枠組みでは、ベイズニューラルネットワーク(BNN)とPDEのためのPINNが前者として機能し、ハミルトニアンモンテカルロ(HMC)や変分推論(VI)は後部の推定器として機能する。
B-PINNは物理法則と散乱ノイズ測定の両方を用いてベイズフレームワークのノイズデータから生じるアレータティック不確実性を予測し定量化する。
PINNと比較して、不確実性の定量化に加えて、B-PINNは過度な適合を避ける能力のため、大きなノイズのあるシナリオにおいてより正確な予測を得る。
ディープニューラルネットワークにおける不確かさの定量化に使用されるドロップアウトとbピン後方推定(hmcまたはvi)の2つの異なるアプローチを系統的に比較した。
実験の結果, hmcはbピンの後方推定にviよりも適しており, ピンを用いたドロップアウトは妥当な不確実性を持つ正確な予測が得られないことがわかった。
最後に, 後部推定器としてHMCや深部正規化流(DNF)モデルと組み合わせた, 切り離したKarhunen-Lo\eve(KL)拡張をBNNに置き換える。
KLはBNNと同じくらい正確だが、BNNベースのフレームワークとは異なり、このフレームワークは高次元の問題に容易に拡張できない。
関連論文リスト
- Be Bayesian by Attachments to Catch More Uncertainty [27.047781689062944]
本稿では,アタッチド構造を持つ新しいベイズニューラルネットワークを提案し,アウト・オブ・ディストリビューション(OOD)データからより不確実性を求める。
ABNNは期待モジュールといくつかの配布モジュールで構成されている。
論文 参考訳(メタデータ) (2023-10-19T07:28:39Z) - Single-shot Bayesian approximation for neural networks [0.0]
ディープニューラルネットワーク(NN)はその高い予測性能で知られている。
NNは不確実性を示すことなく、全く新しい状況に遭遇すると信頼できない予測を下す傾向にある。
単発MCドロップアウト近似は,BNNの利点を保ちながら,NNと同じくらい高速であることを示す。
論文 参考訳(メタデータ) (2023-08-24T13:40:36Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - Constraining cosmological parameters from N-body simulations with
Variational Bayesian Neural Networks [0.0]
乗法正規化フロー (MNFs) はBNNのパラメータの近似後流の族である。
我々は,標準BNNとフリップアウト推定器についてMNFの比較を行った。
MNFは、変動近似によって導入されたバイアスを緩和する真の後部へのより現実的な予測分布を提供する。
論文 参考訳(メタデータ) (2023-01-09T16:07:48Z) - Error-Aware B-PINNs: Improving Uncertainty Quantification in Bayesian
Physics-Informed Neural Networks [2.569295887779268]
不確実性定量化(UQ)は、PINNの文脈で現れ始めている。
本稿では,B-PINNと未知の真の解との相違を考慮したベイズPINN(B-PINN)におけるUQフレームワークを提案する。
線形力学系におけるPINNの誤差境界に関する最近の結果を利用して、線形ODEのクラスにおける予測の不確かさを実証する。
論文 参考訳(メタデータ) (2022-12-14T01:15:26Z) - Bayesian Physics Informed Neural Networks for Data Assimilation and
Spatio-Temporal Modelling of Wildfires [11.00425904688764]
我々は、レベルセット関数のゼロレベルセットを通してファイアフロントをモデル化する偏微分方程式であるレベルセット方程式を、PINNを用いて解く。
負荷変数が極端に変化した場合、一般的なコスト関数は、モデル化されたファイアフロントにおける時間的連続性を維持できないことを示す。
我々は, PINN内のデータ同化を行う手法を開発し, モデル化されたPIN予測を火災前兆の観測に向ける。
論文 参考訳(メタデータ) (2022-12-02T05:00:41Z) - Variational Neural Networks [88.24021148516319]
本稿では,変分ニューラルネットワーク(VNN)と呼ばれるニューラルネットワークにおける不確実性推定手法を提案する。
VNNは、学習可能なサブレイヤで入力を変換することで、レイヤの出力分布のパラメータを生成する。
不確実性評価実験において、VNNはモンテカルロ・ドロップアウトやベイズ・バイ・バックプロパゲーション法よりも優れた不確実性が得られることを示す。
論文 参考訳(メタデータ) (2022-07-04T15:41:02Z) - A Biased Graph Neural Network Sampler with Near-Optimal Regret [57.70126763759996]
グラフニューラルネットワーク(GNN)は、グラフおよびリレーショナルデータにディープネットワークアーキテクチャを適用する手段として登場した。
本論文では,既存の作業に基づいて,GNN近傍サンプリングをマルチアームバンディット問題として扱う。
そこで本研究では,分散を低減し,不安定かつ非限定的な支払いを回避すべく設計されたバイアスをある程度導入した報酬関数を提案する。
論文 参考訳(メタデータ) (2021-03-01T15:55:58Z) - An Infinite-Feature Extension for Bayesian ReLU Nets That Fixes Their
Asymptotic Overconfidence [65.24701908364383]
ベイズ処理は、トレーニングデータを取り巻くReLUネットの過信を軽減することができる。
しかし、彼らから遠く離れたところでは、ReLUニューラルネットワーク(BNN)はいまだに不確実性を過小評価し過ぎている可能性がある。
事前学習した任意のReLU BNNに対して,低コストでemphpost-hocを適用可能であることを示す。
論文 参考訳(メタデータ) (2020-10-06T13:32:18Z) - Frequentist Uncertainty in Recurrent Neural Networks via Blockwise
Influence Functions [121.10450359856242]
リカレントニューラルネットワーク(RNN)は、シーケンシャルおよび時系列データのモデリングに有効である。
RNNにおける既存の不確実性定量化のアプローチは、主にベイズ法に基づいている。
a)モデルトレーニングに干渉せず、その精度を損なうことなく、(b)任意のRNNアーキテクチャに適用し、(c)推定不確かさ間隔に関する理論的カバレッジ保証を提供する。
論文 参考訳(メタデータ) (2020-06-20T22:45:32Z) - Exact posterior distributions of wide Bayesian neural networks [51.20413322972014]
正確なBNN後方収束は、前者のGP限界によって誘導されるものと(弱く)収束することを示す。
実験的な検証のために、リジェクションサンプリングにより、小さなデータセット上で有限BNNから正確なサンプルを生成する方法を示す。
論文 参考訳(メタデータ) (2020-06-18T13:57:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。