論文の概要: Deep smoothness WENO scheme for two-dimensional hyperbolic conservation
laws: A deep learning approach for learning smoothness indicators
- arxiv url: http://arxiv.org/abs/2309.10117v1
- Date: Mon, 18 Sep 2023 19:42:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 17:35:08.281109
- Title: Deep smoothness WENO scheme for two-dimensional hyperbolic conservation
laws: A deep learning approach for learning smoothness indicators
- Title(参考訳): 2次元双曲保存法則の深い滑らか性WENOスキーム:滑らか性指標学習のためのディープラーニングアプローチ
- Authors: Tatiana Kossaczk\'a, Ameya D. Jagtap, Matthias Ehrhardt
- Abstract要約: 深層学習手法を取り入れて, 基本的には非振動性(WENO)ショックキャプチャー方式を改良した5階重み付け方式を提案する。
確立されたWENOアルゴリズムは、WENOスキーム内の滑らか度インジケータを調整するために、コンパクトなニューラルネットワークをトレーニングすることで改善される。
この修正により、特に急激な衝撃に近い数値結果の精度が向上する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we introduce an improved version of the fifth-order weighted
essentially non-oscillatory (WENO) shock-capturing scheme by incorporating deep
learning techniques. The established WENO algorithm is improved by training a
compact neural network to adjust the smoothness indicators within the WENO
scheme. This modification enhances the accuracy of the numerical results,
particularly near abrupt shocks. Unlike previous deep learning-based methods,
no additional post-processing steps are necessary for maintaining consistency.
We demonstrate the superiority of our new approach using several examples from
the literature for the two-dimensional Euler equations of gas dynamics. Through
intensive study of these test problems, which involve various shocks and
rarefaction waves, the new technique is shown to outperform traditional
fifth-order WENO schemes, especially in cases where the numerical solutions
exhibit excessive diffusion or overshoot around shocks.
- Abstract(参考訳): 本稿では,深層学習手法を取り入れた5階重み付き本質的に非振動性(WENO)ショックキャプチャー方式を提案する。
確立されたWENOアルゴリズムは、WENOスキーム内の滑らか度インジケータを調整するために、コンパクトなニューラルネットワークをトレーニングすることで改善される。
この修正により、特に急激な衝撃に近い数値結果の精度が向上する。
従来のディープラーニングベースの方法とは異なり、一貫性を維持するために追加の処理ステップは必要ない。
我々は,気体力学の2次元オイラー方程式の文献から得たいくつかの例を用いて,新しいアプローチの優越性を示す。
様々な衝撃波やレアフィケーション波を含むこれらのテスト問題の集中的な研究を通じて、新しい手法は従来の5次ウェノスキームよりも優れており、特に数値解が過度の拡散や衝撃のオーバーシュートを示す場合において顕著である。
関連論文リスト
- Improved deep learning of chaotic dynamical systems with multistep penalty losses [0.0]
カオスシステムの長期的な振る舞いを予測することは、依然として恐ろしい課題である。
本稿では,最近提案された多段階ペナルティ演算子を活用することで,これらの課題に対処する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2024-10-08T00:13:57Z) - Physics-Informed Neural Networks with Trust-Region Sequential Quadratic Programming [4.557963624437784]
最近の研究によると、物理情報ニューラルネットワーク(PINN)は比較的複雑な部分微分方程式(PDE)を学習できない可能性がある。
本稿では, 信頼領域逐次準計画法(trSQP-PINN)を導入し, PINNの障害モードに対処する。
PINNのようにペナル化ソフト制約損失を直接訓練するのに対し,本手法はソフト制約損失を利用して信頼範囲半径を適応的に調整しながら,ハード制約損失の線形2次近似を行う。
論文 参考訳(メタデータ) (2024-09-16T23:22:12Z) - On discretisation drift and smoothness regularisation in neural network
training [0.0]
私たちは、最適化とモデル正規化に焦点をあてて、ディープラーニングの理解を改善するためのステップを作ることを目標としています。
まず、最も一般的なディープラーニング最適化アルゴリズムに基づいて、離散時間アルゴリズムである勾配降下(GD)を調査することから始める。
NGFと異なり、これらの新たな流れは、教師付き学習や2人のプレイヤゲームで観察されるトレーニング不安定性など、GDの学習速度固有の振る舞いを記述するのに使用できる。
そして、新しい学習率スケジュールと正則性を構築することにより、連続時間からの洞察を不安定なGDダイナミクスの緩和戦略に変換する。
論文 参考訳(メタデータ) (2023-10-21T15:21:36Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Initialization and Regularization of Factorized Neural Layers [23.875225732697142]
ディープネットにおける因子化層の初期化と規則化の方法を示す。
これらのスキームが翻訳と教師なしプリトレーニングの両方のパフォーマンスを向上させる方法を示しています。
論文 参考訳(メタデータ) (2021-05-03T17:28:07Z) - Inertial Proximal Deep Learning Alternating Minimization for Efficient
Neutral Network Training [16.165369437324266]
この研究は、有名な慣性手法であるiPDLAMによって改良されたDLAMを開発し、電流と最後の繰り返しの線形化によって点を予測する。
実世界のデータセットの数値計算結果を報告し,提案アルゴリズムの有効性を実証した。
論文 参考訳(メタデータ) (2021-01-30T16:40:08Z) - Adaptive Gradient Method with Resilience and Momentum [120.83046824742455]
レジリエンスとモメンタム(AdaRem)を用いた適応勾配法を提案する。
AdaRemは、過去の1つのパラメータの変化方向が現在の勾配の方向と一致しているかどうかに応じてパラメータワイズ学習率を調整する。
本手法は,学習速度とテスト誤差の観点から,従来の適応学習率に基づくアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2020-10-21T14:49:00Z) - Reparameterized Variational Divergence Minimization for Stable Imitation [57.06909373038396]
確率的発散の選択における変動が、より高性能なILOアルゴリズムをもたらす可能性について検討する。
本稿では,提案する$f$-divergence最小化フレームワークの課題を軽減するために,逆模倣学習のための再パラメータ化手法を提案する。
経験的に、我々の設計選択は、ベースラインアプローチより優れ、低次元連続制御タスクにおける専門家のパフォーマンスとより密に適合するIOOアルゴリズムを許容することを示した。
論文 参考訳(メタデータ) (2020-06-18T19:04:09Z) - Reintroducing Straight-Through Estimators as Principled Methods for
Stochastic Binary Networks [85.94999581306827]
2重みとアクティベーションを持つニューラルネットワークのトレーニングは、勾配の欠如と離散重みよりも最適化が難しいため、難しい問題である。
多くの実験結果が経験的ストレートスルー(ST)アプローチで達成されている。
同時に、ST法はベルヌーイ重みを持つバイナリネットワーク(SBN)モデルにおける推定子として真に導出することができる。
論文 参考訳(メタデータ) (2020-06-11T23:58:18Z) - AdaS: Adaptive Scheduling of Stochastic Gradients [50.80697760166045]
我々は、textit "knowledge gain" と textit "mapping condition" の概念を導入し、Adaptive Scheduling (AdaS) と呼ばれる新しいアルゴリズムを提案する。
実験によると、AdaSは派生した指標を用いて、既存の適応学習手法よりも高速な収束と優れた一般化、そして(b)いつトレーニングを中止するかを決定するための検証セットへの依存の欠如を示す。
論文 参考訳(メタデータ) (2020-06-11T16:36:31Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。