論文の概要: Learning second-order TVD flux limiters using differentiable solvers
- arxiv url: http://arxiv.org/abs/2503.09625v1
- Date: Tue, 11 Mar 2025 01:19:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-14 15:50:46.676757
- Title: Learning second-order TVD flux limiters using differentiable solvers
- Title(参考訳): 微分可解器を用いた2次TVDフラックスリミッタの学習
- Authors: Chenyang Huang, Amal S. Sebastian, Venkatasubramanian Viswanathan,
- Abstract要約: 本稿では, 微分可能シミュレーションを用いて, 最適2次全変動低減(TVD)フラックスリミッタを学習するためのデータ駆動型フレームワークを提案する。
完全に微分可能な有限体積解法では、リミッタ関数はニューラルネットワークに置き換えられる。
線形対流にのみ訓練されたリミッタは、ほとんどの古典的フラックスリミッタの精度を超越して、強い一般化性を示す。
- 参考スコア(独自算出の注目度): 2.4746157841644267
- License:
- Abstract: This paper presents a data-driven framework for learning optimal second-order total variation diminishing (TVD) flux limiters via differentiable simulations. In our fully differentiable finite volume solvers, the limiter functions are replaced by neural networks. By representing the limiter as a pointwise convex linear combination of the Minmod and Superbee limiters, we enforce both second-order accuracy and TVD constraints at all stages of training. Our approach leverages gradient-based optimization through automatic differentiation, allowing a direct backpropagation of errors from numerical solutions to the limiter parameters. We demonstrate the effectiveness of this method on various hyperbolic conservation laws, including the linear advection equation, the Burgers' equation, and the one-dimensional Euler equations. Remarkably, a limiter trained solely on linear advection exhibits strong generalizability, surpassing the accuracy of most classical flux limiters across a range of problems with shocks and discontinuities. The learned flux limiters can be readily integrated into existing computational fluid dynamics codes, and the proposed methodology also offers a flexible pathway to systematically develop and optimize flux limiters for complex flow problems.
- Abstract(参考訳): 本稿では, 微分可能シミュレーションを用いて, 最適2次全変動低減(TVD)フラックスリミッタを学習するためのデータ駆動型フレームワークを提案する。
完全に微分可能な有限体積解法では、リミッタ関数はニューラルネットワークに置き換えられる。
このリミッタをMinmodとSuperbeeのリミッタの凸直線結合として表現することにより、トレーニングのすべての段階で2次精度とTVD制約の両方を強制する。
提案手法では,数値解からリミッタパラメータへの誤差の直接バックプロパゲーションを可能にする。
本稿では, 線形対流方程式, バーガーズ方程式, 1次元オイラー方程式など, 種々の双曲的保存則に対する本法の有効性を示す。
顕著なことに、線形対流にのみ訓練されたリミッタは強い一般化性を示し、ショックや不連続性に関する様々な問題において、古典的なフラックスリミッタの精度を上回っている。
学習されたフラックスリミッタは、既存の計算流体力学符号に容易に組み込むことができ、提案手法はまた、複雑なフロー問題に対するフラックスリミッタを体系的に開発・最適化するための柔軟な経路を提供する。
関連論文リスト
- Extremization to Fine Tune Physics Informed Neural Networks for Solving Boundary Value Problems [0.1874930567916036]
関数接続理論(TFC)は、(I)BVPの初期および境界条件(IBC)をPINNに正確に課すために用いられる。
本稿では,TFCフレームワークであるReduceed TFCを改良し,PINNのトレーニングおよび推論時間を大幅に改善することを示す。
論文 参考訳(メタデータ) (2024-06-07T23:25:13Z) - Learning Constrained Optimization with Deep Augmented Lagrangian Methods [54.22290715244502]
機械学習(ML)モデルは、制約付き最適化ソルバをエミュレートするために訓練される。
本稿では,MLモデルを用いて2つの解推定を直接予測する手法を提案する。
これにより、双対目的が損失関数であるエンドツーエンドのトレーニングスキームと、双対上昇法をエミュレートした原始的実現可能性への解推定を可能にする。
論文 参考訳(メタデータ) (2024-03-06T04:43:22Z) - Further improving quantum algorithms for nonlinear differential
equations via higher-order methods and rescaling [0.0]
本稿では,Carleman線形化法に基づく既存量子アルゴリズムの3つの改良点について述べる。
線形化微分方程式の解法として高精度な手法を用いることで,誤差の対数的依存性と時間的近線形依存性を実現する。
再スケーリング技術はコストを大幅に削減し、そうでなければODEのシステムに対するCarleman順序で指数関数的になる。
論文 参考訳(メタデータ) (2023-12-15T03:52:44Z) - Capturing the Diffusive Behavior of the Multiscale Linear Transport
Equations by Asymptotic-Preserving Convolutional DeepONets [31.88833218777623]
Asymptotic-Preserving Convolutional Deep Operator Networks (APCONs) について紹介する。
本研究では,グローバルな熱カーネルの代わりに複数のローカルな畳み込み演算を用いた畳み込みディープオペレータネットワークを提案する。
我々のAPCON法は, グリッドサイズに依存しないパラメータ数を持ち, 線形輸送問題の拡散挙動を捉えることができる。
論文 参考訳(メタデータ) (2023-06-28T03:16:45Z) - Constrained Optimization via Exact Augmented Lagrangian and Randomized
Iterative Sketching [55.28394191394675]
等式制約付き非線形非IBS最適化問題に対する適応的不正確なニュートン法を開発した。
ベンチマーク非線形問題,LVMのデータによる制約付きロジスティック回帰,PDE制約問題において,本手法の優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-28T06:33:37Z) - A Functional-Space Mean-Field Theory of Partially-Trained Three-Layer
Neural Networks [49.870593940818715]
本稿では,第1層がランダムで固定された3層NNモデルの無限幅限界について検討する。
我々の理論はモデルの異なるスケーリング選択に対応しており、結果としてMF制限の2つの条件が顕著な振舞いを示す。
論文 参考訳(メタデータ) (2022-10-28T17:26:27Z) - Deep Learning Approximation of Diffeomorphisms via Linear-Control
Systems [91.3755431537592]
我々は、制御に線形に依存する$dot x = sum_i=1lF_i(x)u_i$という形の制御系を考える。
対応するフローを用いて、コンパクトな点のアンサンブル上の微分同相写像の作用を近似する。
論文 参考訳(メタデータ) (2021-10-24T08:57:46Z) - Self Normalizing Flows [65.73510214694987]
本稿では,各層における学習された近似逆数により,勾配の高価な項を置き換えることで,フローの正規化を訓練するための柔軟なフレームワークを提案する。
これにより、各レイヤの正確な更新の計算複雑性が$mathcalO(D3)$から$mathcalO(D2)$に削減される。
実験により,これらのモデルは非常に安定であり,正確な勾配値と類似したデータ可能性値に最適化可能であることが示された。
論文 参考訳(メタデータ) (2020-11-14T09:51:51Z) - Limiting Behaviors of Nonconvex-Nonconcave Minimax Optimization via
Continuous-Time Systems [10.112779201155005]
3つの古典的ミニマックスアルゴリズム(AGDA, AscentGDA, Exgradient Method, EGM)の制限挙動について検討する。
本稿では,GAN(Generative Adrial Networks)において,全ての制限行動が発生しうることを数値的に観察し,様々なGAN問題に対して容易に実演できることを示す。
論文 参考訳(メタデータ) (2020-10-20T21:14:51Z) - Conditional gradient methods for stochastically constrained convex
minimization [54.53786593679331]
構造凸最適化問題に対する条件勾配に基づく2つの新しい解法を提案する。
私たちのフレームワークの最も重要な特徴は、各イテレーションで制約のサブセットだけが処理されることです。
提案アルゴリズムは, 条件勾配のステップとともに, 分散の低減と平滑化に頼り, 厳密な収束保証を伴っている。
論文 参考訳(メタデータ) (2020-07-07T21:26:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。