論文の概要: BEACONS: Bounded-Error, Algebraically-Composable Neural Solvers for Partial Differential Equations
- arxiv url: http://arxiv.org/abs/2602.14853v1
- Date: Mon, 16 Feb 2026 15:49:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 16:22:50.490136
- Title: BEACONS: Bounded-Error, Algebraically-Composable Neural Solvers for Partial Differential Equations
- Title(参考訳): BEACONS:部分微分方程式に対する代数的計算可能なニューラルネットワーク
- Authors: Jonathan Gorard, Ammar Hakim, James Juno,
- Abstract要約: 我々は,PDEのための公式検証ニューラルネットワークソルバを構築することにより,制限を回避することができることを示す。
浅部ニューラルネットワーク近似の最悪のLinf誤差に対して,厳密な外挿境界を構築することができるかを示す。
BEACONSと呼ばれるこのフレームワークは、ニューラルネットワーク自身のための自動コード証明と、機械チェック可能な正当性証明を生成するための見事な自動定理生成システムの両方を含む。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The traditional limitations of neural networks in reliably generalizing beyond the convex hulls of their training data present a significant problem for computational physics, in which one often wishes to solve PDEs in regimes far beyond anything which can be experimentally or analytically validated. In this paper, we show how it is possible to circumvent these limitations by constructing formally-verified neural network solvers for PDEs, with rigorous convergence, stability, and conservation properties, whose correctness can therefore be guaranteed even in extrapolatory regimes. By using the method of characteristics to predict the analytical properties of PDE solutions a priori (even in regions arbitrarily far from the training domain), we show how it is possible to construct rigorous extrapolatory bounds on the worst-case L^inf errors of shallow neural network approximations. Then, by decomposing PDE solutions into compositions of simpler functions, we show how it is possible to compose these shallow neural networks together to form deep architectures, based on ideas from compositional deep learning, in which the large L^inf errors in the approximations have been suppressed. The resulting framework, called BEACONS (Bounded-Error, Algebraically-COmposable Neural Solvers), comprises both an automatic code-generator for the neural solvers themselves, as well as a bespoke automated theorem-proving system for producing machine-checkable certificates of correctness. We apply the framework to a variety of linear and non-linear PDEs, including the linear advection and inviscid Burgers' equations, as well as the full compressible Euler equations, in both 1D and 2D, and illustrate how BEACONS architectures are able to extrapolate solutions far beyond the training data in a reliable and bounded way. Various advantages of the approach over the classical PINN approach are discussed.
- Abstract(参考訳): ニューラルネットワークの伝統的な制限は、トレーニングデータの凸殻を越えて確実に一般化されるため、計算物理学において重要な問題となり、実験的または分析的に検証できるあらゆる状況を超えて、PDEを解決したいと考えることがしばしばある。
本稿では, 厳密な収束性, 安定性, 保存性を備えたPDEのためのニューラルネットワークソルバを構築することにより, これらの制限を回避することができることを示す。
学習領域から任意に離れた領域でも) PDE 解の解析的性質を予測する手法を用いて, 浅部ニューラルネットワーク近似の最悪のL^inf誤差に対して, 厳密な外挿境界を構築することができることを示す。
そして,より単純な関数の合成にPDE解を分解することにより,これらの浅層ニューラルネットワークを結合して深層構造を構築できることを示す。
BEACONS(Bounded-Error, Algebraically-COmposable Neural Solvers)と呼ばれるこのフレームワークは、ニューラルネットワーク自身のための自動コード生成器と、正しさのマシンチェック可能な証明書を生成するための自動定理証明システムの両方を含む。
この枠組みを線形対流やバーガース方程式を含む多種多様な線形および非線形PDEに適用し、1次元および2次元の完全な圧縮可能なオイラー方程式に適用し、BEACONSアーキテクチャがいかにして、信頼性と有界な方法で、トレーニングデータを超えて解を外挿することができるかを説明する。
古典的なPINNアプローチに対するアプローチの様々な利点について論じる。
関連論文リスト
- High precision PINNs in unbounded domains: application to singularity formulation in PDEs [83.50980325611066]
ニューラルネットワークアンサッツの選択、サンプリング戦略、最適化アルゴリズムについて検討する。
1次元バーガース方程式の場合、我々のフレームワークは非常に高精度な解が得られる。
2D Boussinesq 方程式の場合、損失が 4$ の解は citewang2023asymsymptotic よりも小さく、トレーニングステップは少ない。
論文 参考訳(メタデータ) (2025-06-24T02:01:44Z) - Error Bounds for Physics-Informed Neural Networks in Fokker-Planck PDEs [11.527906434022421]
物理インフォームドニューラルネットワーク(PINN)は,確率密度関数を近似するために訓練可能であることを示す (PDF)。
我々の主な貢献はPINN近似誤差の解析である。
標準的なトレーニング手法で効率的に構築できる実用的なエラー境界を導出する。
論文 参考訳(メタデータ) (2024-10-28T23:25:55Z) - A Stable and Scalable Method for Solving Initial Value PDEs with Neural
Networks [52.5899851000193]
我々は,ネットワークの条件が悪くなるのを防止し,パラメータ数で時間線形に動作するODEベースのIPPソルバを開発した。
このアプローチに基づく現在の手法は2つの重要な問題に悩まされていることを示す。
まず、ODEに従うと、問題の条件付けにおいて制御不能な成長が生じ、最終的に許容できないほど大きな数値誤差が生じる。
論文 参考訳(メタデータ) (2023-04-28T17:28:18Z) - Deep NURBS -- Admissible Physics-informed Neural Networks [0.0]
偏微分方程式(PDE)の高精度かつ安価な解を可能にする物理インフォームドニューラルネットワーク(PINN)の新しい数値スキームを提案する。
提案手法は、物理領域とディリクレ境界条件を定義するのに必要な許容的なNURBSパラメトリゼーションとPINNソルバを組み合わせたものである。
論文 参考訳(メタデータ) (2022-10-25T10:35:45Z) - Learning differentiable solvers for systems with hard constraints [48.54197776363251]
ニューラルネットワーク(NN)によって定義される関数に対する偏微分方程式(PDE)制約を強制する実践的手法を提案する。
我々は、任意のNNアーキテクチャに組み込むことができる微分可能なPDE制約層を開発した。
その結果、NNアーキテクチャに直接ハード制約を組み込むことで、制約のない目的のトレーニングに比べてテストエラーがはるかに少ないことがわかった。
論文 参考訳(メタデータ) (2022-07-18T15:11:43Z) - LordNet: An Efficient Neural Network for Learning to Solve Parametric Partial Differential Equations without Simulated Data [47.49194807524502]
エンタングルメントをモデル化するためのチューナブルで効率的なニューラルネットワークであるLordNetを提案する。
ポアソン方程式と(2Dおよび3D)ナビエ・ストークス方程式を解く実験は、長距離の絡み合いがロードネットによってうまくモデル化できることを示した。
論文 参考訳(メタデータ) (2022-06-19T14:41:08Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - Physics and Equality Constrained Artificial Neural Networks: Application
to Partial Differential Equations [1.370633147306388]
偏微分方程式(PDE)の解を学ぶために物理インフォームドニューラルネットワーク(PINN)が提案されている。
本稿では,この目的関数の定式化方法が,PINNアプローチにおける厳密な制約の源であることを示す。
本稿では,逆問題と前方問題の両方に対処可能な多目的フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-30T05:55:35Z) - Bayesian neural networks for weak solution of PDEs with uncertainty
quantification [3.4773470589069473]
ラベルなしでPDEを解くために、新しい物理制約ニューラルネットワーク(NN)アプローチが提案されている。
我々は,PDEの離散化残差に基づくNNの損失関数を,効率的で畳み込み演算子に基づくベクトル化実装により記述する。
本研究では, 定常拡散, 線形弾性, 非線形弾性に応用し, 提案フレームワークの性能と性能を示す。
論文 参考訳(メタデータ) (2021-01-13T04:57:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。