論文の概要: Conservative approximation-based feedforward neural network for WENO schemes
- arxiv url: http://arxiv.org/abs/2507.06190v1
- Date: Tue, 08 Jul 2025 17:19:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-09 16:34:38.362878
- Title: Conservative approximation-based feedforward neural network for WENO schemes
- Title(参考訳): WENOスキームのための保守近似に基づくフィードフォワードニューラルネットワーク
- Authors: Kwanghyuk Park, Jiaxi Gu, Jae-Hun Jung,
- Abstract要約: 本稿では,点値からの導出に対する保守的近似に基づくフィードフォワードニューラルネットワークを提案する。
WENO3-CADNNはWENO3-Zを上回り、WENO5-JSに匹敵する精度を実現する。
- 参考スコア(独自算出の注目度): 4.867849275247251
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this work, we present the feedforward neural network based on the conservative approximation to the derivative from point values, for the weighted essentially non-oscillatory (WENO) schemes in solving hyperbolic conservation laws. The feedforward neural network, whose inputs are point values from the three-point stencil and outputs are two nonlinear weights, takes the place of the classical WENO weighting procedure. For the training phase, we employ the supervised learning and create a new labeled dataset for one-dimensional conservative approximation, where we construct a numerical flux function from the given point values such that the flux difference approximates the derivative to high-order accuracy. The symmetric-balancing term is introduced for the loss function so that it propels the neural network to match the conservative approximation to the derivative and satisfy the symmetric property that WENO3-JS and WENO3-Z have in common. The consequent WENO schemes, WENO3-CADNNs, demonstrate robust generalization across various benchmark scenarios and resolutions, where they outperform WENO3-Z and achieve accuracy comparable to WENO5-JS.
- Abstract(参考訳): 本研究では,高ボリック保存法則の解法における重み付けされた本質的に非振動性(WENO)スキームに対して,点値からの導関数に対する保守的近似に基づくフィードフォワードニューラルネットワークを提案する。
入力が3点ステンシルの点値であり、出力が2つの非線形重みであるフィードフォワードニューラルネットワークは、古典的なWENO重み付け手順に取って代わる。
トレーニングフェーズでは,教師付き学習を用いて1次元保守近似のための新しいラベル付きデータセットを作成し,フラックス差が微分を高次精度に近似するように所定の点値から数値フラックス関数を構築する。
損失関数に対して対称バランシング項を導入し、ニューラルネットワークが導関数と保守近似を一致させ、WENO3-JSとWENO3-Zが共通する対称特性を満たすようにした。
その後のWENO3-CADNN(WENO3-CADNN)は、WENO3-Zを上回り、WENO5-JSに匹敵する精度を達成するため、様々なベンチマークシナリオと解像度で堅牢な一般化を示す。
関連論文リスト
- Convolution-weighting method for the physics-informed neural network: A Primal-Dual Optimization Perspective [14.65008276932511]
物理インフォームドニューラルネットワーク(PINN)は偏微分方程式(PDE)の解法として広く用いられている
PINNは一般に有限個の点を用いて最適化され、収束と精度を保証する上で大きな課題となる。
そこで本稿では, 減量関数に対する重み付けを, 孤立点から連続近傍領域への適応的に変更する手法を提案する。
論文 参考訳(メタデータ) (2025-06-24T17:13:51Z) - Rational-WENO: A lightweight, physically-consistent three-point weighted essentially non-oscillatory scheme [14.120671138290104]
我々は、解の局所的な滑らかさを正確に推定するために有理ニューラルネットワークを用いる。
この手法は, 散逸を著しく低減した粒度の再構築を実現する。
提案手法の有効性を,数個の1次元,2次元,3次元の流体問題に対して示す。
論文 参考訳(メタデータ) (2024-09-13T22:11:03Z) - A third-order finite difference weighted essentially non-oscillatory scheme with shallow neural network [9.652617666391926]
双曲保存法則のニューラルネットワークに基づく有限差分重み付き本質的に非振動(WENO)方式を導入する。
平均二乗誤差と平均二乗誤差の2つの損失関数を用いて、WENO3-JS重みをラベルとして計算する。
これらのWENO3-SNNスキームは, WENO3-JSとWENO3-Zのシミュレーションと比較して, 1次元実例で優れた結果を示し, 2次元実例で改善された挙動を示した。
論文 参考訳(メタデータ) (2024-07-08T18:55:57Z) - Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - Learning WENO for entropy stable schemes to solve conservation laws [0.0]
TeCNOスキームは任意の高次エントロピー安定有限差分分解器のクラスを形成する。
3階重み付き本質的に非振動(WENO)スキームは、符号特性を満たすように設計されている。
本稿では,DSPWENO(Deep Sign Preserving WENO)と呼ばれるSP-WENOの変種を提案する。
論文 参考訳(メタデータ) (2024-03-21T21:39:05Z) - Guaranteed Approximation Bounds for Mixed-Precision Neural Operators [83.64404557466528]
我々は、ニューラル演算子学習が本質的に近似誤差を誘導する直感の上に構築する。
提案手法では,GPUメモリ使用量を最大50%削減し,スループットを58%向上する。
論文 参考訳(メタデータ) (2023-07-27T17:42:06Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - Neural Basis Functions for Accelerating Solutions to High Mach Euler
Equations [63.8376359764052]
ニューラルネットワークを用いた偏微分方程式(PDE)の解法を提案する。
ニューラルネットワークの集合を縮小順序 Proper Orthogonal Decomposition (POD) に回帰する。
これらのネットワークは、所定のPDEのパラメータを取り込み、PDEに還元順序近似を計算する分岐ネットワークと組み合わせて使用される。
論文 参考訳(メタデータ) (2022-08-02T18:27:13Z) - Robust Implicit Networks via Non-Euclidean Contractions [63.91638306025768]
暗黙のニューラルネットワークは、精度の向上とメモリ消費の大幅な削減を示す。
彼らは不利な姿勢と収束の不安定さに悩まされる。
本論文は,ニューラルネットワークを高機能かつ頑健に設計するための新しい枠組みを提供する。
論文 参考訳(メタデータ) (2021-06-06T18:05:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。