論文の概要: Using Gradient to Boost the Generalization Performance of Deep Learning
Models for Fluid Dynamics
- arxiv url: http://arxiv.org/abs/2212.00716v1
- Date: Sun, 9 Oct 2022 10:20:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-23 03:26:46.802396
- Title: Using Gradient to Boost the Generalization Performance of Deep Learning
Models for Fluid Dynamics
- Title(参考訳): グラディエントを用いた流体力学のためのディープラーニングモデルの一般化性能向上
- Authors: Eduardo Vital Brasil
- Abstract要約: 本稿では,Deep Learningの一般化能力を高めるための新しい研究について述べる。
我々の戦略は、DLネットワークのより良い一般化に向けた良い結果を示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Nowadays, Computational Fluid Dynamics (CFD) is a fundamental tool for
industrial design. However, the computational cost of doing such simulations is
expensive and can be detrimental for real-world use cases where many
simulations are necessary, such as the task of shape optimization. Recently,
Deep Learning (DL) has achieved a significant leap in a wide spectrum of
applications and became a good candidate for physical systems, opening
perspectives to CFD. To circumvent the computational bottleneck of CFD, DL
models have been used to learn on Euclidean data, and more recently, on
non-Euclidean data such as unstuctured grids and manifolds, allowing much
faster and more efficient (memory, hardware) surrogate models. Nevertheless, DL
presents the intrinsic limitation of extrapolating (generalizing) out of
training data distribution (design space). In this study, we present a novel
work to increase the generalization capabilities of Deep Learning. To do so, we
incorporate the physical gradients (derivatives of the outputs w.r.t. the
inputs) to the DL models. Our strategy has shown good results towards a better
generalization of DL networks and our methodological/ theoretical study is
corroborated with empirical validation, including an ablation study.
- Abstract(参考訳): 現在、CFD(Computational Fluid Dynamics)は産業設計の基本的なツールである。
しかし、そのようなシミュレーションを行う計算コストは高価であり、形状最適化のタスクのような多くのシミュレーションが必要な実世界のユースケースでは有害である。
近年、Deep Learning (DL) は幅広いアプリケーションにおいて大きな飛躍を遂げ、物理システムにとって良い候補となり、CFDへの展望を広げている。
CFDの計算ボトルネックを回避するために、DLモデルはユークリッドデータ、最近では非ユークリッドグリッドや多様体などの非ユークリッドデータから学習し、より高速で効率的な(メモリ、ハードウェア)サロゲートモデルを可能にする。
それでもDLは、トレーニングデータ分布(設計空間)から外挿(一般化)の本質的な制限を提示する。
本研究では,ディープラーニングの一般化能力を高めるための新しい研究について述べる。
そのため、DLモデルに物理勾配(出力w.r.t.の導出物)を組み込む。
我々の戦略は, DLネットワークのより良い一般化に向けた良い結果を示し, 方法論的・理論的研究は, アブレーション研究を含む実証的検証と相関している。
関連論文リスト
- Graph Neural Networks and Differential Equations: A hybrid approach for data assimilation of fluid flows [0.0]
本研究では,グラフニューラルネットワーク(GNN)とReynolds-Averaged Navier Stokes(RANS)方程式を組み合わせた新しいハイブリッド手法を提案する。
その結果, 純粋なデータ駆動モデルと比較して, 再構成平均流の精度は著しく向上した。
論文 参考訳(メタデータ) (2024-11-14T14:31:52Z) - DCP: Learning Accelerator Dataflow for Neural Network via Propagation [52.06154296196845]
この研究は、DNN層の最適なデータフローを人間の努力なしに数秒で自動的に見つけるために、Dataflow Code Propagation (DCP)と呼ばれる効率的なデータ中心のアプローチを提案する。
DCPは、様々な最適化目標を最小化するために、望ましい勾配方向に向けてデータフローコードを効率的に更新する神経予測器を学習する。
例えば、追加のトレーニングデータを使用しないDCPは、数千のサンプルを使用して完全な検索を行うGAMAメソッドを超越している。
論文 参考訳(メタデータ) (2024-10-09T05:16:44Z) - Diffusion-Based Neural Network Weights Generation [80.89706112736353]
D2NWGは拡散に基づくニューラルネットワーク重み生成技術であり、転送学習のために高性能な重みを効率よく生成する。
本稿では,ニューラルネットワーク重み生成のための遅延拡散パラダイムを再放送するために,生成的ハイパー表現学習を拡張した。
我々のアプローチは大規模言語モデル(LLM)のような大規模アーキテクチャにスケーラブルであり、現在のパラメータ生成技術の限界を克服しています。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - Data-Efficient Operator Learning via Unsupervised Pretraining and In-Context Learning [45.78096783448304]
本研究では,PDE演算子学習のための教師なし事前学習を設計する。
シミュレーションソリューションを使わずにラベルなしのPDEデータをマイニングし、物理に着想を得た再構成ベースのプロキシタスクでニューラルネットワークを事前訓練する。
提案手法は,データ効率が高く,より一般化可能であり,従来の視覚予測モデルよりも優れる。
論文 参考訳(メタデータ) (2024-02-24T06:27:33Z) - Training Deep Surrogate Models with Large Scale Online Learning [48.7576911714538]
ディープラーニングアルゴリズムは、PDEの高速解を得るための有効な代替手段として登場した。
モデルは通常、ソルバによって生成された合成データに基づいてトレーニングされ、ディスクに格納され、トレーニングのために読み返される。
ディープサロゲートモデルのためのオープンソースのオンライントレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-28T12:02:27Z) - Meta-Learning for Airflow Simulations with Graph Neural Networks [3.52359746858894]
本稿では,OoD(Out-of-distribution)サンプルにおける学習モデルの性能向上のためのメタラーニング手法を提案する。
具体的には,各気翼上のCFD内の気流シミュレーションをメタラーニング問題として設定し,一つの気翼形状で定義された各例を個別のタスクとして扱う。
学習モデルのOoD一般化性能向上のための提案手法の有効性を実験的に検証した。
論文 参考訳(メタデータ) (2023-06-18T19:25:13Z) - Unifying Synergies between Self-supervised Learning and Dynamic
Computation [53.66628188936682]
SSLとDCのパラダイム間の相互作用に関する新しい視点を提示する。
SSL設定において、スクラッチから高密度かつゲートされたサブネットワークを同時に学習することは可能であることを示す。
密集エンコーダとゲートエンコーダの事前学習における共進化は、良好な精度と効率のトレードオフをもたらす。
論文 参考訳(メタデータ) (2023-01-22T17:12:58Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Scalable Deep-Learning-Accelerated Topology Optimization for Additively
Manufactured Materials [4.221095652322005]
トポロジー最適化(TO)は、新しい構造、材料、デバイスを設計するための、人気があり強力な計算手法である。
これらの課題に対処するため、SDL-TOと呼ばれる汎用拡張型ディープラーニング(DL)ベースのToフレームワークを提案する。
我々のフレームワークは、反復履歴データを学習し、与えられた設計と勾配のマッピングを同時にトレーニングすることで、TOを加速します。
論文 参考訳(メタデータ) (2020-11-28T17:38:31Z) - Learning to Continuously Optimize Wireless Resource In Episodically
Dynamic Environment [55.91291559442884]
この研究は、データ駆動型手法が動的環境で継続的に学習し、最適化できる方法論を開発する。
本稿では,無線システム学習のモデリングプロセスに連続学習の概念を構築することを提案する。
我々の設計は、異なるデータサンプル間で「一定の公正性を保証する」新しいmin-maxの定式化に基づいている。
論文 参考訳(メタデータ) (2020-11-16T08:24:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。