論文の概要: Variationally correct operator learning: Reduced basis neural operator with a posteriori error estimation
- arxiv url: http://arxiv.org/abs/2512.21319v1
- Date: Wed, 24 Dec 2025 18:37:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-25 19:43:21.847061
- Title: Variationally correct operator learning: Reduced basis neural operator with a posteriori error estimation
- Title(参考訳): 変分正しい演算子学習:後部誤差推定を用いた減量基底ニューラル演算子
- Authors: Yuan Qiu, Wolfgang Dahmen, Peng Chen,
- Abstract要約: PDE-残留損失の最小化は、ニューラル演算子の物理的一貫性を促進するための一般的な戦略である。
本研究は,FOSLS(Fon-order system least-squares)の目的を定式化することによって,変分正しい演算子学習フレームワークを開発する。
本稿では,有限要素の離散化バイアス,ベーストランケーション誤差の低減,ニューラルネットワーク近似誤差,統計的推定誤差の和で総誤差を束縛する厳密な収束解析を提案する。
- 参考スコア(独自算出の注目度): 3.8135482236014133
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Minimizing PDE-residual losses is a common strategy to promote physical consistency in neural operators. However, standard formulations often lack variational correctness, meaning that small residuals do not guarantee small solution errors due to the use of non-compliant norms or ad hoc penalty terms for boundary conditions. This work develops a variationally correct operator learning framework by constructing first-order system least-squares (FOSLS) objectives whose values are provably equivalent to the solution error in PDE-induced norms. We demonstrate this framework on stationary diffusion and linear elasticity, incorporating mixed Dirichlet-Neumann boundary conditions via variational lifts to preserve norm equivalence without inconsistent penalties. To ensure the function space conformity required by the FOSLS loss, we propose a Reduced Basis Neural Operator (RBNO). The RBNO predicts coefficients for a pre-computed, conforming reduced basis, thereby ensuring variational stability by design while enabling efficient training. We provide a rigorous convergence analysis that bounds the total error by the sum of finite element discretization bias, reduced basis truncation error, neural network approximation error, and statistical estimation errors arising from finite sampling and optimization. Numerical benchmarks validate these theoretical bounds and demonstrate that the proposed approach achieves superior accuracy in PDE-compliant norms compared to standard baselines, while the residual loss serves as a reliable, computable a posteriori error estimator.
- Abstract(参考訳): PDE-残留損失の最小化は、ニューラル演算子の物理的一貫性を促進するための一般的な戦略である。
しかし、標準定式化はしばしば変分正当性に欠けており、つまり、小さな残差が境界条件に対する非準拠のノルムや副ホックのペナルティ項を使用するため、小さな解誤差を保証しないことを意味する。
本研究は、PDE誘導ノルムの解誤差と証明可能な値を持つ一階システム最小二乗(FOSLS)目標を構築することにより、変動的に正しい演算子学習フレームワークを開発する。
定常拡散と線形弾性に関するこの枠組みを,不整合なペナルティを伴わないノルム等価性を維持するために,変分リフトによる混合ディリクレ・ノイマン境界条件を組み込んだ。
FOSLS損失による関数空間の整合性を確保するため,RBNO(Reduced Basis Neural Operator)を提案する。
RBNOは、事前計算された基本値に適合する係数を予測し、効率的なトレーニングを可能とし、設計による変動安定性を確保する。
本稿では,有限要素の離散化バイアス,ベーストランケーション誤差の低減,ニューラルネットワーク近似誤差,有限サンプリングと最適化による統計的推定誤差の和で総誤差を束縛する厳密な収束解析を提案する。
数値ベンチマークはこれらの理論的境界を検証し,提案手法が標準ベースラインよりもPDE準拠ノルムの方が精度が高いことを示す一方で,残余損失は信頼性が高く計算可能な後部誤差推定器として機能することを示した。
関連論文リスト
- Derivative-Free Sequential Quadratic Programming for Equality-Constrained Stochastic Optimization [3.2489082010225485]
我々は、客観的で決定論的な等式制約で非線形最適化問題を解くことを検討する。
本稿では,DF-SSQP法を提案する。
標準仮定では,提案したDF-SSQP法を大域的にほぼ収束させる。
論文 参考訳(メタデータ) (2025-10-25T23:51:20Z) - On the Optimal Construction of Unbiased Gradient Estimators for Zeroth-Order Optimization [57.179679246370114]
既存の手法の潜在的な制限は、ステップサイズが提案されない限り、ほとんどの摂動推定器に固有のバイアスである。
本稿では, 良好な構成を維持しつつ, バイアスを排除した非バイアス勾配スケーリング推定器のファミリーを提案する。
論文 参考訳(メタデータ) (2025-10-22T18:25:43Z) - Spectral Analysis of the Weighted Frobenius Objective [2.7857707184602165]
反復解法を前提とした対称定値行列の近似のための重み付きフロベニウス損失の解析を行った。
解析の結果,各固有モードは対応する固有値の正方形によってスケールされ,固定誤差予算の下では,誤差が最大の固有値の方向に制限された場合にのみ損失が最小化されることがわかった。
論文 参考訳(メタデータ) (2025-09-20T19:15:24Z) - Accelerating PDE Solvers with Equation-Recast Neural Operator Preconditioning [9.178290601589365]
Minimal-Data Parametric Neural Operator Preconditioning (MD-PNOP) はパラメトリックPDEソルバを高速化するための新しいパラダイムである。
パラメータ偏差の残差を、トレーニングされたニューラル演算子を使用して、オフラインでソリューションを洗練させる、追加のソース用語として再キャストする。
固定ソース、単一グループ固有値、および多群結合固有値問題に対する完全順序忠実度を維持しつつ、計算時間の50%削減を一貫して達成する。
論文 参考訳(メタデータ) (2025-09-01T12:14:58Z) - Non-Asymptotic Stability and Consistency Guarantees for Physics-Informed Neural Networks via Coercive Operator Analysis [0.0]
物理インフォームドニューラルネットワーク(PINN)の安定性と一貫性を解析するための統一的理論的枠組みを提案する。
PINNは、サンプルコロケーションと境界点上の残留損失を最小限に抑え、偏微分方程式(PDE)の近似解を求める。
我々は、整合性の作用素レベルと変分の概念の両方を形式化し、ソボレフノルムの残留最小化が、穏やかな正則性の下でエネルギーと一様ノルムの収束をもたらすことを証明した。
論文 参考訳(メタデータ) (2025-06-16T14:41:15Z) - Optimal policy evaluation using kernel-based temporal difference methods [78.83926562536791]
カーネルヒルベルト空間を用いて、無限水平割引マルコフ報酬過程の値関数を推定する。
我々は、関連するカーネル演算子の固有値に明示的に依存した誤差の非漸近上界を導出する。
MRP のサブクラスに対する minimax の下位境界を証明する。
論文 参考訳(メタデータ) (2021-09-24T14:48:20Z) - Near-optimal inference in adaptive linear regression [60.08422051718195]
最小二乗法のような単純な方法でさえ、データが適応的に収集されるときの非正規な振る舞いを示すことができる。
我々は,これらの分布異常を少なくとも2乗推定で補正するオンラインデバイアス推定器のファミリーを提案する。
我々は,マルチアームバンディット,自己回帰時系列推定,探索による能動的学習などの応用を通して,我々の理論の有用性を実証する。
論文 参考訳(メタデータ) (2021-07-05T21:05:11Z) - Robust Implicit Networks via Non-Euclidean Contractions [63.91638306025768]
暗黙のニューラルネットワークは、精度の向上とメモリ消費の大幅な削減を示す。
彼らは不利な姿勢と収束の不安定さに悩まされる。
本論文は,ニューラルネットワークを高機能かつ頑健に設計するための新しい枠組みを提供する。
論文 参考訳(メタデータ) (2021-06-06T18:05:02Z) - Amortized Conditional Normalized Maximum Likelihood: Reliable Out of
Distribution Uncertainty Estimation [99.92568326314667]
本研究では,不確実性推定のための拡張性のある汎用的アプローチとして,償却条件正規化最大値(ACNML)法を提案する。
提案アルゴリズムは条件付き正規化最大度(CNML)符号化方式に基づいており、最小記述長の原理に従って最小値の最適特性を持つ。
我々は、ACNMLが、分布外入力のキャリブレーションの観点から、不確実性推定のための多くの手法と好意的に比較することを示した。
論文 参考訳(メタデータ) (2020-11-05T08:04:34Z) - Understanding and Mitigating the Tradeoff Between Robustness and
Accuracy [88.51943635427709]
逆行訓練は、堅牢なエラーを改善するために、摂動でトレーニングセットを増強する。
拡張摂動が最適線形予測器からノイズのない観測を行う場合であっても,標準誤差は増大する可能性がある。
論文 参考訳(メタデータ) (2020-02-25T08:03:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。