論文の概要: Bayesian Reasoning for Physics Informed Neural Networks
- arxiv url: http://arxiv.org/abs/2308.13222v1
- Date: Fri, 25 Aug 2023 07:38:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-28 14:53:09.201055
- Title: Bayesian Reasoning for Physics Informed Neural Networks
- Title(参考訳): 物理インフォームドニューラルネットワークのためのベイズ推論
- Authors: Krzysztof M. Graczyk and Kornel Witkowski
- Abstract要約: 我々は、MacKayによって構成されたベイズニューラルネットワークフレームワークを採用する。
各モデル(適合)について、いわゆるエビデンスが計算される。
最も最適な解は証拠の最大値を持つ。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Physics informed neural network (PINN) approach in Bayesian formulation is
presented. We adopt the Bayesian neural network framework formulated by MacKay
(Neural Computation 4 (3) (1992) 448). The posterior densities are obtained
from Laplace approximation. For each model (fit), the so-called evidence is
computed. It is a measure that classifies the hypothesis. The most optimal
solution has the maximal value of the evidence. The Bayesian framework allows
us to control the impact of the boundary contribution to the total loss.
Indeed, the relative weights of loss components are fine-tuned by the Bayesian
algorithm. We solve heat, wave, and Burger's equations. The obtained results
are in good agreement with the exact solutions. All solutions are provided with
the uncertainties computed within the Bayesian framework.
- Abstract(参考訳): ベイズ定式化における物理インフォームドニューラルネットワーク(pinn)アプローチを提案する。
我々は、MacKay(Neural Computation 4 (3) (1992) 448)で定式化されたベイズニューラルネットワークフレームワークを採用する。
後方密度はラプラス近似から得られる。
各モデル(適合)について、いわゆる証拠が計算される。
仮説を分類する尺度である。
最も最適な解は証拠の最大値を持つ。
ベイズフレームワークは、総損失に対する境界寄与の影響を制御することができる。
実際、損失成分の相対重みはベイズアルゴリズムによって微調整される。
熱、波動、バーガー方程式を解く。
得られた結果は、正確な解とよく一致している。
すべての解はベイズフレームワーク内で計算された不確実性を持つ。
関連論文リスト
- Total Uncertainty Quantification in Inverse PDE Solutions Obtained with Reduced-Order Deep Learning Surrogate Models [50.90868087591973]
機械学習サロゲートモデルを用いて得られた逆PDE解の総不確かさを近似したベイズ近似法を提案する。
非線型拡散方程式に対する反復的アンサンブルスムーズおよび深層アンサンブル法との比較により,提案手法を検証した。
論文 参考訳(メタデータ) (2024-08-20T19:06:02Z) - A variational neural Bayes framework for inference on intractable posterior distributions [1.0801976288811024]
トレーニングされたニューラルネットワークに観測データを供給することにより、モデルパラメータの後方分布を効率的に取得する。
理論的には、我々の後部はKulback-Leiblerの発散において真の後部に収束することを示す。
論文 参考訳(メタデータ) (2024-04-16T20:40:15Z) - Calibrating Neural Simulation-Based Inference with Differentiable
Coverage Probability [50.44439018155837]
ニューラルモデルのトレーニング目的に直接キャリブレーション項を含めることを提案する。
古典的なキャリブレーション誤差の定式化を緩和することにより、エンドツーエンドのバックプロパゲーションを可能にする。
既存の計算パイプラインに直接適用でき、信頼性の高いブラックボックス後部推論が可能である。
論文 参考訳(メタデータ) (2023-10-20T10:20:45Z) - A probabilistic, data-driven closure model for RANS simulations with aleatoric, model uncertainty [1.8416014644193066]
本稿では,レノルズ平均Navier-Stokes (RANS) シミュレーションのためのデータ駆動閉包モデルを提案する。
パラメトリック閉包が不十分な問題領域内の領域を特定するために,完全ベイズ的定式化と余剰誘導先行法を組み合わせて提案する。
論文 参考訳(メタデータ) (2023-07-05T16:53:31Z) - An Optimization-based Deep Equilibrium Model for Hyperspectral Image
Deconvolution with Convergence Guarantees [71.57324258813675]
本稿では,ハイパースペクトル画像のデコンボリューション問題に対処する新しい手法を提案する。
新しい最適化問題を定式化し、学習可能な正規化器をニューラルネットワークの形で活用する。
導出した反復解法は、Deep Equilibriumフレームワーク内の不動点計算問題として表現される。
論文 参考訳(メタデータ) (2023-06-10T08:25:16Z) - Deep Learning Aided Laplace Based Bayesian Inference for Epidemiological
Systems [2.596903831934905]
本稿では,Laplace をベースとしたベイズ推定と ANN アーキテクチャを併用して ODE 軌道の近似を求めるハイブリッド手法を提案する。
本手法の有効性を,非分析的ソリューションを用いた疫学システム,Susceptible-Infectious-Demoved (SIR) モデルを用いて実証した。
論文 参考訳(メタデータ) (2022-10-17T09:02:41Z) - Inverting brain grey matter models with likelihood-free inference: a
tool for trustable cytoarchitecture measurements [62.997667081978825]
脳の灰白質細胞構造の特徴は、体密度と体積に定量的に敏感であり、dMRIでは未解決の課題である。
我々は新しいフォワードモデル、特に新しい方程式系を提案し、比較的スパースなb殻を必要とする。
次に,提案手法を逆転させるため,確率自由推論 (LFI) として知られるベイズ解析から最新のツールを適用した。
論文 参考訳(メタデータ) (2021-11-15T09:08:27Z) - Distributed Variational Bayesian Algorithms Over Sensor Networks [6.572330981878818]
一般ベイズ推論問題に対する2つの新しい分散VBアルゴリズムを提案する。
提案アルゴリズムは、核融合センターで利用可能な全データに依存する集中型VBアルゴリズムとほぼ同等の性能を有する。
論文 参考訳(メタデータ) (2020-11-27T08:12:18Z) - Disentangling the Gauss-Newton Method and Approximate Inference for
Neural Networks [96.87076679064499]
我々は一般化されたガウスニュートンを解き、ベイズ深層学習の近似推論を行う。
ガウス・ニュートン法は基礎となる確率モデルを大幅に単純化する。
ガウス過程への接続は、新しい関数空間推論アルゴリズムを可能にする。
論文 参考訳(メタデータ) (2020-07-21T17:42:58Z) - Model Fusion with Kullback--Leibler Divergence [58.20269014662046]
異種データセットから学習した後続分布を融合する手法を提案する。
我々のアルゴリズムは、融合モデルと個々のデータセット後部の両方に対する平均場仮定に依存している。
論文 参考訳(メタデータ) (2020-07-13T03:27:45Z) - Mean-Field Approximation to Gaussian-Softmax Integral with Application
to Uncertainty Estimation [23.38076756988258]
ディープニューラルネットワークにおける不確実性を定量化するための,新しい単一モデルに基づくアプローチを提案する。
平均場近似式を用いて解析的に難解な積分を計算する。
実験的に,提案手法は最先端の手法と比較して競合的に機能する。
論文 参考訳(メタデータ) (2020-06-13T07:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。