論文の概要: Neural network-based Godunov corrections for approximate Riemann solvers using bi-fidelity learning
- arxiv url: http://arxiv.org/abs/2503.13248v1
- Date: Mon, 17 Mar 2025 15:01:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 15:58:40.177320
- Title: Neural network-based Godunov corrections for approximate Riemann solvers using bi-fidelity learning
- Title(参考訳): Bi-fidelity Learning を用いた近似リーマン解のニューラルネットワークによるゴドゥノフ補正
- Authors: Akshay Thakur, Matthew J. Zahr,
- Abstract要約: 教師付き学習を用いて訓練されたニューラルネットワークに基づく代理モデルを構築し、内部および外部保守状態変数を対応する正確なフラックスにマッピングする。
提案手法の性能は, 1次元および2次元偏微分方程式への応用を通じて実証される。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The Riemann problem is fundamental in the computational modeling of hyperbolic partial differential equations, enabling the development of stable and accurate upwind schemes. While exact solvers provide robust upwinding fluxes, their high computational cost necessitates approximate solvers. Although approximate solvers achieve accuracy in many scenarios, they produce inaccurate solutions in certain cases. To overcome this limitation, we propose constructing neural network-based surrogate models, trained using supervised learning, designed to map interior and exterior conservative state variables to the corresponding exact flux. Specifically, we propose two distinct approaches: one utilizing a vanilla neural network and the other employing a bi-fidelity neural network. The performance of the proposed approaches is demonstrated through applications to one-dimensional and two-dimensional partial differential equations, showcasing their robustness and accuracy.
- Abstract(参考訳): リーマン問題は双曲型偏微分方程式の計算モデルの基本であり、安定かつ正確な上向きスキームの開発を可能にする。
正確な解法は強固な上向きのフラックスを提供するが、その高い計算コストは近似解法を必要とする。
近似解法は多くのシナリオで精度を得るが、特定の場合において不正確な解を生成する。
この制限を克服するために、教師付き学習を用いて訓練されたニューラルネットワークに基づく代理モデルの構築を提案し、内部および外部保守状態変数を対応する正確なフラックスにマッピングする。
具体的には,バニラニューラルネットワークとバイフィデリティニューラルネットワークの2つのアプローチを提案する。
提案手法の性能は, 1次元および2次元偏微分方程式への応用を通じて実証され, その頑健さと精度を示している。
関連論文リスト
- Iterative Sizing Field Prediction for Adaptive Mesh Generation From Expert Demonstrations [49.173541207550485]
Adaptive Meshing By Expert Reconstruction (AMBER) は模倣学習問題である。
AMBERは、グラフニューラルネットワークとオンラインデータ取得スキームを組み合わせて、専門家メッシュの投影されたサイズフィールドを予測する。
我々は、人間の専門家が提供した2Dメッシュと3Dメッシュ上でAMBERを実験的に検証し、提供されたデモと密に一致し、シングルステップのCNNベースラインを上回った。
論文 参考訳(メタデータ) (2024-06-20T10:01:22Z) - NeuralStagger: Accelerating Physics-constrained Neural PDE Solver with
Spatial-temporal Decomposition [67.46012350241969]
本稿では,NeuralStaggerと呼ばれる一般化手法を提案する。
元の学習タスクをいくつかの粗い解像度のサブタスクに分解する。
本稿では,2次元および3次元流体力学シミュレーションにおけるNeuralStaggerの適用例を示す。
論文 参考訳(メタデータ) (2023-02-20T19:36:52Z) - Mixed formulation of physics-informed neural networks for
thermo-mechanically coupled systems and heterogeneous domains [0.0]
物理インフォームドニューラルネットワーク(PINN)は境界値問題を解決するための新しいツールである。
近年の研究では、多くの工学的問題に対して損失関数を設計する際には、一階微分を使い、強い形式と弱い形式の方程式を組み合わせることにより、はるかに精度が向上することが示されている。
本研究では,多物理問題,特に定常熱力学的に結合した方程式系を解くために混合定式化を適用することを提案する。
論文 参考訳(メタデータ) (2023-02-09T21:56:59Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - Multigoal-oriented dual-weighted-residual error estimation using deep
neural networks [0.0]
ディープラーニングは、関数を近似する柔軟性の高い強力なツールだと考えられている。
提案手法は,誤差の局所化に付随する問題を解く後続誤差推定法に基づく。
複数のゴール関数に対する後方誤差推定を得るために,効率的で実装が容易なアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-12-21T16:59:44Z) - Learning Neural Network Subspaces [74.44457651546728]
近年の観測は,ニューラルネットワーク最適化の展望の理解を深めている。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
論文 参考訳(メタデータ) (2021-02-20T23:26:58Z) - Computational characteristics of feedforward neural networks for solving
a stiff differential equation [0.0]
減衰系をモデル化する単純だが基本的な常微分方程式の解について検討する。
パラメータやメソッドに対して好適な選択を特定できることを示す。
全体として、ニューラルネットワークアプローチによる信頼性と正確な結果を得るために何ができるかを示すことで、この分野の現在の文献を拡張します。
論文 参考訳(メタデータ) (2020-12-03T12:22:24Z) - Neural Network Approximations of Compositional Functions With
Applications to Dynamical Systems [3.660098145214465]
我々は,合成関数とそのニューラルネットワーク近似の近似理論を開発した。
構成関数の重要な特徴の集合と,ニューラルネットワークの特徴と複雑性の関係を同定する。
関数近似に加えて、ニューラルネットワークの誤差上限の式もいくつか証明する。
論文 参考訳(メタデータ) (2020-12-03T04:40:25Z) - Large-scale Neural Solvers for Partial Differential Equations [48.7576911714538]
偏微分方程式 (PDE) を解くことは、多くのプロセスがPDEの観点でモデル化できるため、科学の多くの分野において不可欠である。
最近の数値解法では、基礎となる方程式を手動で離散化するだけでなく、分散コンピューティングのための高度で調整されたコードも必要である。
偏微分方程式, 物理インフォームドニューラルネットワーク(PINN)に対する連続メッシュフリーニューラルネットワークの適用性について検討する。
本稿では,解析解に関するGatedPINNの精度と,スペクトル解法などの最先端数値解法について論じる。
論文 参考訳(メタデータ) (2020-09-08T13:26:51Z) - Unsupervised Learning of Solutions to Differential Equations with
Generative Adversarial Networks [1.1470070927586016]
本研究では,教師なしニューラルネットワークを用いた微分方程式の解法を開発した。
差分方程式GAN (DEQGAN) と呼ばれる手法は, 平均二乗誤差を桁違いに低減できることを示す。
論文 参考訳(メタデータ) (2020-07-21T23:36:36Z) - Neural Control Variates [71.42768823631918]
ニューラルネットワークの集合が、積分のよい近似を見つけるという課題に直面していることを示す。
理論的に最適な分散最小化損失関数を導出し、実際に安定したオンライントレーニングを行うための代替の複合損失を提案する。
具体的には、学習した光場近似が高次バウンスに十分な品質であることを示し、誤差補正を省略し、無視可能な可視バイアスのコストでノイズを劇的に低減できることを示した。
論文 参考訳(メタデータ) (2020-06-02T11:17:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。