論文の概要: BiLO: Bilevel Local Operator Learning for PDE Inverse Problems. Part II: Efficient Uncertainty Quantification with Low-Rank Adaptation
- arxiv url: http://arxiv.org/abs/2507.17019v1
- Date: Tue, 22 Jul 2025 21:20:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-24 22:33:14.775462
- Title: BiLO: Bilevel Local Operator Learning for PDE Inverse Problems. Part II: Efficient Uncertainty Quantification with Low-Rank Adaptation
- Title(参考訳): BiLO: PDE逆問題に対する二段階局所演算子学習(第2報)低ランク適応による不確かさの効率的な定量化
- Authors: Ray Zirui Zhang, Christopher E. Miles, Xiaohui Xie, John S. Lowengrub,
- Abstract要約: 不確かさの定量化と偏微分方程式(PDE)による逆問題(英語版)は、幅広い科学的・工学的応用の中心である。
本稿では,PDE制約付き最適化問題に対するBilevel Local Operator Learning (BiLO) をベイズ推論フレームワークに拡張する。
- 参考スコア(独自算出の注目度): 9.229577043169224
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Uncertainty quantification and inverse problems governed by partial differential equations (PDEs) are central to a wide range of scientific and engineering applications. In this second part of a two part series, we extend Bilevel Local Operator Learning (BiLO) for PDE-constrained optimization problems developed in Part 1 to the Bayesian inference framework. At the lower level, we train a network to approximate the local solution operator by minimizing the local operator loss with respect to the weights of the neural network. At the upper level, we sample the PDE parameters from the posterior distribution. We achieve efficient sampling through gradient-based Markov Chain Monte Carlo (MCMC) methods and low-rank adaptation (LoRA). Compared with existing methods based on Bayesian neural networks, our approach bypasses the challenge of sampling in the high-dimensional space of neural network weights and does not require specifying a prior distribution on the neural network solution. Instead, uncertainty propagates naturally from the data through the PDE constraints. By enforcing strong PDE constraints, the proposed method improves the accuracy of both parameter inference and uncertainty quantification. We analyze the dynamic error of the gradient in the MCMC sampler and the static error in the posterior distribution due to inexact minimization of the lower level problem and demonstrate a direct link between the tolerance for solving the lower level problem and the accuracy of the resulting uncertainty quantification. Through numerical experiments across a variety of PDE models, we demonstrate that our method delivers accurate inference and quantification of uncertainties while maintaining high computational efficiency.
- Abstract(参考訳): 不確かさの定量化と偏微分方程式(PDE)による逆問題(英語版)は、幅広い科学的・工学的応用の中心である。
この2部シリーズの第2部では、PDE制約付き最適化問題に対するBilevel Local Operator Learning (BiLO) をベイズ推論フレームワークに拡張する。
低レベルでは、ニューラルネットワークの重みに関する局所演算子損失を最小限に抑え、局所解演算子を近似するネットワークを訓練する。
上層では後部分布からPDEパラメータをサンプリングする。
勾配に基づくマルコフ・チェイン・モンテカルロ法(MCMC)とローランク適応法(LoRA)による効率的なサンプリングを実現する。
ベイズニューラルネットワークに基づく既存手法と比較して,ニューラルネットワーク重みの高次元空間におけるサンプリングの難しさを回避し,ニューラルネットワークソリューション上での事前分布の特定を必要としない。
代わりに、不確実性はPDE制約を通じてデータから自然に伝播する。
提案手法は,強いPDE制約を課すことで,パラメータ推定と不確実性定量化の両方の精度を向上させる。
MCMCサンプリング器における勾配の動的誤差と後部分布の静的誤差を下層問題の不正確な最小化による解析し、下層問題の解法と結果の不確実性定量化の精度との直接的リンクを示す。
各種PDEモデルの数値実験を通じて,高い計算効率を維持しつつ,不確かさの正確な推測と定量化を行うことを示す。
関連論文リスト
- Guided Diffusion Sampling on Function Spaces with Applications to PDEs [111.87523128566781]
PDEに基づく逆問題における条件付きサンプリングのための一般的なフレームワークを提案する。
これは、関数空間拡散モデルと条件付けのためのプラグアンドプレイガイダンスによって達成される。
提案手法は,最先端の固定解像度拡散ベースラインに対して平均32%の精度向上を実現する。
論文 参考訳(メタデータ) (2025-05-22T17:58:12Z) - Decentralized Nonconvex Composite Federated Learning with Gradient Tracking and Momentum [78.27945336558987]
分散サーバ(DFL)はクライアント・クライアント・アーキテクチャへの依存をなくす。
非滑らかな正規化はしばしば機械学習タスクに組み込まれる。
本稿では,これらの問題を解決する新しいDNCFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-04-17T08:32:25Z) - Total Uncertainty Quantification in Inverse PDE Solutions Obtained with Reduced-Order Deep Learning Surrogate Models [50.90868087591973]
機械学習サロゲートモデルを用いて得られた逆PDE解の総不確かさを近似したベイズ近似法を提案する。
非線型拡散方程式に対する反復的アンサンブルスムーズおよび深層アンサンブル法との比較により,提案手法を検証した。
論文 参考訳(メタデータ) (2024-08-20T19:06:02Z) - BiLO: Bilevel Local Operator Learning for PDE Inverse Problems. Part I: PDE-Constrained Optimization [9.229577043169224]
偏微分方程式(PDE)の逆問題に対する新しいニューラルネットワークに基づく解法を提案する。
上層部ではPDEパラメータに関してデータ損失を最小限に抑える。
低レベルでは、ニューラルネットワークをトレーニングし、与えられたPDEパラメータの集合の近傍でPDEソリューション演算子を局所的に近似する。
論文 参考訳(メタデータ) (2024-04-27T06:06:41Z) - An Extreme Learning Machine-Based Method for Computational PDEs in
Higher Dimensions [1.2981626828414923]
本稿では,確率型ニューラルネットワークに基づく高次元偏微分方程式(PDE)の解法について述べる。
本稿では,高次元線形・非線形定常・動的PDEの数値シミュレーションを行い,その性能を実証する。
論文 参考訳(メタデータ) (2023-09-13T15:59:02Z) - Adversarial Adaptive Sampling: Unify PINN and Optimal Transport for the Approximation of PDEs [2.526490864645154]
ニューラルネットワークモデルにより与えられた近似解とトレーニングセットのランダムサンプルを同時に最適化する新しいminmax式を提案する。
鍵となる考え方は、深層生成モデルを用いてトレーニングセット内のランダムサンプルを調整し、近似されたPDE解によって誘導される残差が滑らかなプロファイルを維持することである。
論文 参考訳(メタデータ) (2023-05-30T02:59:18Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Monte Carlo Neural PDE Solver for Learning PDEs via Probabilistic Representation [59.45669299295436]
教師なしニューラルソルバのトレーニングのためのモンテカルロPDEソルバを提案する。
我々は、マクロ現象をランダム粒子のアンサンブルとみなすPDEの確率的表現を用いる。
対流拡散, アレン・カーン, ナヴィエ・ストークス方程式に関する実験により, 精度と効率が著しく向上した。
論文 参考訳(メタデータ) (2023-02-10T08:05:19Z) - Learning Physics-Informed Neural Networks without Stacked
Back-propagation [82.26566759276105]
我々は,物理インフォームドニューラルネットワークのトレーニングを著しく高速化する新しい手法を開発した。
特に、ガウス滑らか化モデルによりPDE解をパラメータ化し、スタインの恒等性から導かれる2階微分がバックプロパゲーションなしで効率的に計算可能であることを示す。
実験の結果,提案手法は通常のPINN訓練に比べて2桁の精度で競合誤差を実現できることがわかった。
論文 参考訳(メタデータ) (2022-02-18T18:07:54Z) - Solving PDEs on Unknown Manifolds with Machine Learning [8.220217498103315]
本稿では,未知多様体上の楕円型PDEを解くためのメッシュフリー計算フレームワークと機械学習理論を提案する。
提案したNNソルバは,新しいデータポイント上の一般化とほぼ同一の誤差を持つ新しいデータポイント上でPDEを強固に一般化できることを示す。
論文 参考訳(メタデータ) (2021-06-12T03:55:15Z) - A hybrid MGA-MSGD ANN training approach for approximate solution of
linear elliptic PDEs [0.0]
MGA-MSGD(Modified Genetic-Multilevel Gradient Descent)トレーニングアルゴリズムを導入しました。
ANNによるPDEによって記述された3次元機械的問題の精度と効率を大幅に改善する。
論文 参考訳(メタデータ) (2020-12-18T10:59:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。