論文の概要: Deep Neural Networks to Correct Sub-Precision Errors in CFD
- arxiv url: http://arxiv.org/abs/2202.04233v1
- Date: Wed, 9 Feb 2022 02:32:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-11 01:06:42.788089
- Title: Deep Neural Networks to Correct Sub-Precision Errors in CFD
- Title(参考訳): CFDのサブ精度誤差を補正するディープニューラルネットワーク
- Authors: Akash Haridas, Nagabhushana Rao Vadlamani, Yuki Minamoto
- Abstract要約: いくつかの機械学習技術は、空間的離散化による誤差の修正に成功している。
畳み込みニューラルネットワークと完全に微分可能な数値解法を用いて、16ビットの算術演算を行い、密結合型ML-CFDハイブリッド解法を学習する。
16ビットの解法と比較して, ML-CFDハイブリッド解法は, 速度場の誤差蓄積を低減し, 高周波数での運動エネルギースペクトルを改善するのに有効であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Loss of information in numerical simulations can arise from various sources
while solving discretized partial differential equations. In particular,
precision-related errors can accumulate in the quantities of interest when the
simulations are performed using low-precision 16-bit floating-point arithmetic
compared to an equivalent 64-bit simulation. Here, low-precision computation
requires much lower resources than high-precision computation. Several machine
learning (ML) techniques proposed recently have been successful in correcting
the errors arising from spatial discretization. In this work, we extend these
techniques to improve Computational Fluid Dynamics (CFD) simulations performed
using low numerical precision. We first quantify the precision related errors
accumulated in a Kolmogorov forced turbulence test case. Subsequently, we
employ a Convolutional Neural Network together with a fully differentiable
numerical solver performing 16-bit arithmetic to learn a tightly-coupled ML-CFD
hybrid solver. Compared to the 16-bit solver, we demonstrate the efficacy of
the ML-CFD hybrid solver towards reducing the error accumulation in the
velocity field and improving the kinetic energy spectrum at higher frequencies.
- Abstract(参考訳): 数値シミュレーションにおける情報の損失は、離散偏微分方程式を解きながら様々な情報源から生じる。
特に、精度関連の誤差は、16ビット浮動小数点演算によるシミュレーションが等価な64ビットシミュレーションと比較される場合、利子数に蓄積される。
ここでは、高精度計算よりもはるかに少ないリソースを必要とする。
最近提案された機械学習(ML)技術は,空間的離散化による誤りの修正に成功している。
本研究では,これらの手法を拡張し,計算流体力学(CFD)シミュレーションを低数値精度で高速化する。
まず,コルモゴロフ強制乱流試験における精度関連誤差の定量化を行った。
その後,畳み込みニューラルネットワークと完全微分可能な数値解法を用いて16ビット演算を行い,密結合型ML-CFDハイブリッド解法を学習する。
16ビットの解法と比較して, ML-CFDハイブリッド解法は, 速度場の誤差蓄積を低減し, 高周波数での運動エネルギースペクトルを改善するのに有効であることを示す。
関連論文リスト
- COmoving Computer Acceleration (COCA): $N$-body simulations in an emulated frame of reference [0.0]
我々は,ハイブリッドフレームワークであるComoving Computer Acceleration (COCA)を紹介した。
正確な運動方程式は、基準のエミュレートされたフレームで解き、任意のエミュレーション誤差を設計によって補正する。
COCAは、粒子軌道におけるエミュレーション誤差を効率的に低減し、MLなしで対応するシミュレーションを実行するよりもはるかに少ない力評価を必要とする。
論文 参考訳(メタデータ) (2024-09-03T17:27:12Z) - Speeding up and reducing memory usage for scientific machine learning
via mixed precision [3.746841257785099]
偏微分方程式のためのニューラルネットワークのトレーニングには、大量のメモリと計算資源が必要である。
計算効率の探索において,半精度(float16)を用いたニューラルネットワークのトレーニングが注目されている。
本研究では,float16とfloat32の数値形式を組み合わせた混合精度について検討し,メモリ使用量の削減と計算速度の向上を図る。
実験の結果,混合精度トレーニングはトレーニング時間とメモリ要求を大幅に削減するだけでなく,モデル精度も維持することがわかった。
論文 参考訳(メタデータ) (2024-01-30T00:37:57Z) - Stochastic Optimization for Non-convex Problem with Inexact Hessian
Matrix, Gradient, and Function [99.31457740916815]
信頼領域(TR)と立方体を用いた適応正則化は、非常に魅力的な理論的性質を持つことが証明されている。
TR法とARC法はヘッセン関数,勾配関数,関数値の非コンパクトな計算を同時に行うことができることを示す。
論文 参考訳(メタデータ) (2023-10-18T10:29:58Z) - Guaranteed Approximation Bounds for Mixed-Precision Neural Operators [83.64404557466528]
我々は、ニューラル演算子学習が本質的に近似誤差を誘導する直感の上に構築する。
提案手法では,GPUメモリ使用量を最大50%削減し,スループットを58%向上する。
論文 参考訳(メタデータ) (2023-07-27T17:42:06Z) - Accelerating Part-Scale Simulation in Liquid Metal Jet Additive
Manufacturing via Operator Learning [0.0]
部分スケールの予測は多くの小規模シミュレーションを必要とする。
LMJにおける液滴の合体性を記述するモデルとして, 混合圧縮性流体流, 熱伝達, 相変化方程式がある。
我々は,液滴の合体過程の初期状態と最終状態のマッピングを演算子学習アプローチで学習する。
論文 参考訳(メタデータ) (2022-02-02T17:24:16Z) - Mixed Precision Low-bit Quantization of Neural Network Language Models
for Speech Recognition [67.95996816744251]
長期間のメモリリカレントニューラルネットワーク(LSTM-RNN)とトランスフォーマーで表される最先端言語モデル(LM)は、実用アプリケーションではますます複雑で高価なものになりつつある。
現在の量子化法は、均一な精度に基づいており、量子化誤差に対するLMの異なる部分での様々な性能感度を考慮できない。
本稿では,新しい混合精度ニューラルネットワークLM量子化法を提案する。
論文 参考訳(メタデータ) (2021-11-29T12:24:02Z) - Mixed Precision of Quantization of Transformer Language Models for
Speech Recognition [67.95996816744251]
トランスフォーマーが表現する最先端のニューラルネットワークモデルは、実用アプリケーションにとってますます複雑で高価なものになりつつある。
現在の低ビット量子化法は、均一な精度に基づいており、量子化エラーに対するシステムの異なる部分での様々な性能感度を考慮できない。
最適局所精度設定は2つの手法を用いて自動的に学習される。
Penn Treebank (PTB)とSwitchboard corpusによるLF-MMI TDNNシステムの試験を行った。
論文 参考訳(メタデータ) (2021-11-29T09:57:00Z) - Large-scale Neural Solvers for Partial Differential Equations [48.7576911714538]
偏微分方程式 (PDE) を解くことは、多くのプロセスがPDEの観点でモデル化できるため、科学の多くの分野において不可欠である。
最近の数値解法では、基礎となる方程式を手動で離散化するだけでなく、分散コンピューティングのための高度で調整されたコードも必要である。
偏微分方程式, 物理インフォームドニューラルネットワーク(PINN)に対する連続メッシュフリーニューラルネットワークの適用性について検討する。
本稿では,解析解に関するGatedPINNの精度と,スペクトル解法などの最先端数値解法について論じる。
論文 参考訳(メタデータ) (2020-09-08T13:26:51Z) - AQD: Towards Accurate Fully-Quantized Object Detection [94.06347866374927]
本稿では,浮動小数点演算を除去するために,AQDと呼ばれる高精度な量子化オブジェクト検出ソリューションを提案する。
我々のAQDは、非常に低ビットのスキームの下での完全精度と比較して、同等またはそれ以上の性能を実現しています。
論文 参考訳(メタデータ) (2020-07-14T09:07:29Z) - Designing Accurate Emulators for Scientific Processes using
Calibration-Driven Deep Models [33.935755695805724]
Learn-by-Calibrating (LbC)は、科学応用においてエミュレータを設計するための新しいディープラーニングアプローチである。
また,LbCは広く適応された損失関数の選択に対して,一般化誤差を大幅に改善することを示した。
LbCは、小さなデータレギュレータでも高品質なエミュレータを実現し、さらに重要なことは、明確な事前条件なしで固有のノイズ構造を復元する。
論文 参考訳(メタデータ) (2020-05-05T16:54:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。