論文の概要: A TVD neural network closure and application to turbulent combustion
- arxiv url: http://arxiv.org/abs/2408.03413v1
- Date: Tue, 6 Aug 2024 19:22:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-08 17:40:15.859337
- Title: A TVD neural network closure and application to turbulent combustion
- Title(参考訳): TVDニューラルネットワークの閉鎖と乱流燃焼への応用
- Authors: Seung Won Suh, Jonathan F MacArt, Luke N Olson, Jonathan B Freund,
- Abstract要約: トレーニングニューラルネットワーク(NN)は、支配方程式を閉じるための魅力的な特徴を持っているが、それらは物理的な現実から逸脱することができる。
NNの定式化は、溶液の有界性や陽性性に反する刺激発振を防止するために導入される。
離散化方程式に機械学習のクロージャとして組み込まれ、厳格に制約されている。
- 参考スコア(独自算出の注目度): 1.374949083138427
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Trained neural networks (NN) have attractive features for closing governing equations, but in the absence of additional constraints, they can stray from physical reality. A NN formulation is introduced to preclude spurious oscillations that violate solution boundedness or positivity. It is embedded in the discretized equations as a machine learning closure and strictly constrained, inspired by total variation diminishing (TVD) methods for hyperbolic conservation laws. The constraint is exactly enforced during gradient-descent training by rescaling the NN parameters, which maps them onto an explicit feasible set. Demonstrations show that the constrained NN closure model usefully recovers linear and nonlinear hyperbolic phenomena and anti-diffusion while enforcing the non-oscillatory property. Finally, the model is applied to subgrid-scale (SGS) modeling of a turbulent reacting flow, for which it suppresses spurious oscillations in scalar fields that otherwise violate the solution boundedness. It outperforms a simple penalization of oscillations in the loss function.
- Abstract(参考訳): トレーニングニューラルネットワーク(NN)は、支配方程式を閉じるための魅力的な特徴を持っているが、追加の制約がない場合には、物理的な現実から逸脱することができる。
NNの定式化は、溶液の有界性や陽性性に反する刺激発振を防止するために導入される。
離散化方程式に機械学習のクロージャとして組み込まれ、双曲的保存法に対する総変量減少法(TVD)法に触発されて厳格に制約されている。
制約は、NNパラメータを再スケーリングすることで、勾配-未熟なトレーニング中に正確に適用され、明示的な実現可能なセットにマップされる。
拘束されたNN閉包モデルは,非振動特性を保ちながら,線形および非線形双曲現象や反拡散を効果的に回復することを示す。
最後に、このモデルは乱流反応流のサブグリッドスケール(SGS)モデルに適用され、このモデルが解境界性に反するスカラー場における急激な振動を抑制する。
これは損失関数における振動の単純なペナル化よりも優れる。
関連論文リスト
- Exact dynamics of quantum dissipative $XX$ models: Wannier-Stark localization in the fragmented operator space [49.1574468325115]
振動と非振動崩壊を分離する臨界散逸強度において例外的な点が見つかる。
また、演算子部分空間全体の単一減衰モードにつながる異なるタイプの散逸についても記述する。
論文 参考訳(メタデータ) (2024-05-27T16:11:39Z) - Rank Collapse Causes Over-Smoothing and Over-Correlation in Graph Neural
Networks [4.213427823201119]
本研究は,ディープグラフニューラルネットワークにおけるオーバー・スムーシングとオーバー・相関性に関する新たな理論的知見を明らかにする。
不変部分空間の有意性を示し、特徴変換の影響を受けない固定相対的挙動を示す。
我々は、経験的に洞察を非線形の場合にまで拡張し、既存のモデルが線形独立な特徴をキャプチャできないことを示す。
論文 参考訳(メタデータ) (2023-08-31T15:22:31Z) - Neural Abstractions [72.42530499990028]
本稿では,ニューラルネットワークを用いた非線形力学モデルの安全性検証手法を提案する。
提案手法は,既存のベンチマーク非線形モデルにおいて,成熟度の高いFlow*と同等に動作することを示す。
論文 参考訳(メタデータ) (2023-01-27T12:38:09Z) - A Functional-Space Mean-Field Theory of Partially-Trained Three-Layer
Neural Networks [49.870593940818715]
本稿では,第1層がランダムで固定された3層NNモデルの無限幅限界について検討する。
我々の理論はモデルの異なるスケーリング選択に対応しており、結果としてMF制限の2つの条件が顕著な振舞いを示す。
論文 参考訳(メタデータ) (2022-10-28T17:26:27Z) - Optimization-Induced Graph Implicit Nonlinear Diffusion [64.39772634635273]
我々はGIND(Graph Implicit Diffusion)と呼ばれる新しいグラフ畳み込み変種を提案する。
GINDは暗黙的に隣人の無限のホップにアクセスでき、非線型拡散を伴う特徴を適応的に集約することで過度な平滑化を防いでいる。
学習された表現は、明示的な凸最適化目標の最小化として定式化できることを示す。
論文 参考訳(メタデータ) (2022-06-29T06:26:42Z) - On Robust Classification using Contractive Hamiltonian Neural ODEs [8.049462923912902]
我々は、ニューラルネットワーク(NODE)の堅牢性を改善するために収縮理論を用いる。
NODEでは、入力データは力学系の初期状態に対応する。
契約型ハミルトニアン・ヌード(CH-ヌード)のクラスを提案する。
論文 参考訳(メタデータ) (2022-03-22T15:16:36Z) - Decimation technique for open quantum systems: a case study with
driven-dissipative bosonic chains [62.997667081978825]
量子系の外部自由度への不可避結合は、散逸(非単体)ダイナミクスをもたらす。
本稿では,グリーン関数の(散逸的な)格子計算に基づいて,これらのシステムに対処する手法を提案する。
本手法のパワーを,複雑性を増大させる駆動散逸型ボゾン鎖のいくつかの例で説明する。
論文 参考訳(メタデータ) (2022-02-15T19:00:09Z) - Least-Squares Neural Network (LSNN) Method For Scalar Nonlinear
Hyperbolic Conservation Laws: Discrete Divergence Operator [4.3226069572849966]
スカラー線形双曲保存法を解くために、最小二乗ニューラルネットワーク(LSNN)法が導入された。
本稿では,HCLを時間空間の発散形式に書き換え,新たな発散作用素を導入する。
論文 参考訳(メタデータ) (2021-10-21T04:50:57Z) - The Limiting Dynamics of SGD: Modified Loss, Phase Space Oscillations,
and Anomalous Diffusion [29.489737359897312]
勾配降下法(SGD)を訓練した深部ニューラルネットワークの限界ダイナミクスについて検討する。
これらのダイナミクスを駆動する重要な要素は、本来のトレーニング損失ではなく、位相空間の振動を引き起こす速度と確率電流を暗黙的に規則化する修正損失の組み合わせであることを示す。
論文 参考訳(メタデータ) (2021-07-19T20:18:57Z) - Robust Implicit Networks via Non-Euclidean Contractions [63.91638306025768]
暗黙のニューラルネットワークは、精度の向上とメモリ消費の大幅な削減を示す。
彼らは不利な姿勢と収束の不安定さに悩まされる。
本論文は,ニューラルネットワークを高機能かつ頑健に設計するための新しい枠組みを提供する。
論文 参考訳(メタデータ) (2021-06-06T18:05:02Z) - Least-Squares ReLU Neural Network (LSNN) Method For Scalar Nonlinear
Hyperbolic Conservation Law [3.6525914200522656]
本稿では,不連続解を用いた線形対流-反作用問題の解法として,最小二乗ReLUニューラルネットワーク(LSNN)を提案する。
本手法は,自由度数の観点からメッシュベースの数値法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-05-25T02:59:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。