論文の概要: SURFNet: Super-resolution of Turbulent Flows with Transfer Learning
using Small Datasets
- arxiv url: http://arxiv.org/abs/2108.07667v1
- Date: Tue, 17 Aug 2021 14:53:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-18 16:21:32.006394
- Title: SURFNet: Super-resolution of Turbulent Flows with Transfer Learning
using Small Datasets
- Title(参考訳): SURFNet:小さなデータセットを用いた伝達学習による乱流の超解像
- Authors: Octavi Obiols-Sales, Abhinav Vishnu, Nicholas Malaya, and Aparna
Chandramowlishwaran
- Abstract要約: 本稿では,転写学習に基づく超解像流ネットワークであるSURFNetを紹介する。
SURFNetは主に低解像度データセット上でDLモデルをトレーニングし、転送は少数の高解像度フロー問題でモデルを学習する。
粗いモデルよりも最大256倍の入力解像度で乱流状態におけるナビエ・ストークス方程式を解くことにより、SURFNetの性能を実証的に評価する。
- 参考スコア(独自算出の注目度): 0.9297355862757838
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Learning (DL) algorithms are emerging as a key alternative to
computationally expensive CFD simulations. However, state-of-the-art DL
approaches require large and high-resolution training data to learn accurate
models. The size and availability of such datasets are a major limitation for
the development of next-generation data-driven surrogate models for turbulent
flows. This paper introduces SURFNet, a transfer learning-based
super-resolution flow network. SURFNet primarily trains the DL model on
low-resolution datasets and transfer learns the model on a handful of
high-resolution flow problems - accelerating the traditional numerical solver
independent of the input size. We propose two approaches to transfer learning
for the task of super-resolution, namely one-shot and incremental learning.
Both approaches entail transfer learning on only one geometry to account for
fine-grid flow fields requiring 15x less training data on high-resolution
inputs compared to the tiny resolution (64x256) of the coarse model,
significantly reducing the time for both data collection and training. We
empirically evaluate SURFNet's performance by solving the Navier-Stokes
equations in the turbulent regime on input resolutions up to 256x larger than
the coarse model. On four test geometries and eight flow configurations unseen
during training, we observe a consistent 2-2.1x speedup over the OpenFOAM
physics solver independent of the test geometry and the resolution size (up to
2048x2048), demonstrating both resolution-invariance and generalization
capabilities. Our approach addresses the challenge of reconstructing
high-resolution solutions from coarse grid models trained using low-resolution
inputs (super-resolution) without loss of accuracy and requiring limited
computational resources.
- Abstract(参考訳): 計算コストの高いCFDシミュレーションの代替手段として、ディープラーニング(DL)アルゴリズムが登場している。
しかし、最先端のDLアプローチでは、正確なモデルを学習するために、大規模かつ高解像度のトレーニングデータが必要である。
このようなデータセットのサイズと可用性は、乱流の次世代データ駆動サロゲートモデルの開発において大きな制限となる。
本稿では,転写学習に基づく超解像流ネットワークであるSURFNetを紹介する。
SURFNetは、主に低解像度データセット上でDLモデルをトレーニングし、いくつかの高解像度フロー問題(入力サイズに依存しない従来の数値解法)でモデルを学習する。
本稿では,超解像処理,すなわちワンショット学習とインクリメンタル学習の2つの方法を提案する。
どちらも、粗いモデルの小さな解像度 (64x256) と比較して、高解像度の入力で15分の1のトレーニングデータを必要とする細粒度の流れ場を考慮に入れ、データ収集とトレーニングの両方の時間を大幅に短縮する。
我々は,粗いモデルより最大256倍大きい入力解像度の乱流状態におけるnavier-stokes方程式を解いて,surfnetの性能を実験的に評価する。
4つのテストジオメトリと8つのフロー構成について,テスト幾何学と解像度サイズ(最大2048x2048)とは無関係に,openfoam物理ソルバ上で一貫した2-2.1倍の速度アップを観測し,分解能非分散性と一般化能力を示した。
本研究では,低解像度入力(スーパーレゾリューション)を用いて学習した粗いグリッドモデルから,精度を損なうことなく,計算資源を限定した高分解能解を再構成する手法を提案する。
関連論文リスト
- Differentiable Turbulence II [0.0]
そこで我々は,Navier-Stokes方程式を解くために,ディープラーニングモデルを汎用有限要素数値スキームに統合するためのフレームワークを開発した。
学習したクロージャは、より微細なグリッド上の従来の大規模渦シミュレーションに匹敵する精度で10倍のスピードアップを達成できることを示す。
論文 参考訳(メタデータ) (2023-07-25T14:27:49Z) - Learning Controllable Adaptive Simulation for Multi-resolution Physics [86.8993558124143]
完全深層学習に基づくサロゲートモデルとして,LAMP(Learning Controllable Adaptive Simulation for Multi- resolution Physics)を導入した。
LAMPは、前方進化を学習するためのグラフニューラルネットワーク(GNN)と、空間的洗練と粗大化のポリシーを学ぶためのGNNベースのアクター批判で構成されている。
我々は,LAMPが最先端のディープラーニングサロゲートモデルより優れており,長期予測誤差を改善するために,適応的なトレードオフ計算が可能であることを実証した。
論文 参考訳(メタデータ) (2023-05-01T23:20:27Z) - Faster Adaptive Federated Learning [84.38913517122619]
フェデレートラーニングは分散データの出現に伴って注目を集めている。
本稿では,クロスサイロFLにおけるモーメントに基づく分散低減手法に基づく適応アルゴリズム(FAFED)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:07:50Z) - Learning to Optimize Permutation Flow Shop Scheduling via Graph-based
Imitation Learning [70.65666982566655]
置換フローショップスケジューリング(PFSS)は製造業で広く使われている。
我々は,より安定かつ正確に収束を加速する専門家主導の模倣学習を通じてモデルを訓練することを提案する。
我々のモデルのネットワークパラメータはわずか37%に減少し、エキスパートソリューションに対する我々のモデルの解のギャップは平均6.8%から1.3%に減少する。
論文 参考訳(メタデータ) (2022-10-31T09:46:26Z) - Machine Learning-Accelerated Computational Solid Mechanics: Application
to Linear Elasticity [0.0]
我々は、高解像度ラベル付きデータを用いることなく、物理系の支配方程式と境界条件を利用してモデルを訓練する。
超解場は、粗いメッシュ解像度の400倍の精度で進行数値計算器の精度と一致することを示した。
論文 参考訳(メタデータ) (2021-12-16T07:39:50Z) - Stacked Generative Machine Learning Models for Fast Approximations of
Steady-State Navier-Stokes Equations [1.4150517264592128]
種々の境界条件下で定常なナビエ・ストークス方程式を解くために弱教師付きアプローチを開発する。
ラベル付きシミュレーションデータを使わずに最先端の結果を得られる。
我々は、N-S方程式の数値解を生成する複雑さを増大させる積み重ねモデルを訓練する。
論文 参考訳(メタデータ) (2021-12-13T05:08:55Z) - Multi-Scale Aligned Distillation for Low-Resolution Detection [68.96325141432078]
本稿では,高分解能モデルや多分解能モデルから知識を抽出することで,低分解能モデルの性能を向上させることに焦点を当てる。
いくつかのインスタンスレベルの検出タスクとデータセットにおいて,本手法を用いて訓練された低解像度モデルと,従来のマルチスケールトレーニングによる訓練された高解像度モデルとを競合的に処理する。
論文 参考訳(メタデータ) (2021-09-14T12:53:35Z) - A comparative study of various Deep Learning techniques for
spatio-temporal Super-Resolution reconstruction of Forced Isotropic Turbulent
flows [0.45935798913942893]
本研究では,様々な最先端機械学習技術を用いて,空間的・時間的に乱流場の超解像解析を行う。
この研究で使用されるデータセットは、ジョンズ・ホプキンス乱流データベースの一部である「等方性1024粗い」データセットから抽出される。
論文 参考訳(メタデータ) (2021-07-07T17:16:55Z) - Deep Learning for Efficient Reconstruction of High-Resolution Turbulent
DNS Data [0.0]
大規模渦シミュレーション(LES)は、低分解能(LR)グリッド上の流体流れを解くために、より計算的に効率的なアプローチを示す。
本稿では,解の忠実度と計算複雑性のトレードオフを軽減することを目的とした,新しいディープラーニングフレームワークSR-DNS Netを提案する。
提案モデルでは,LESの高忠実度DNSデータを低解像度の解のように効率的に再構成し,良好な再現基準を得る。
論文 参考訳(メタデータ) (2020-10-21T23:37:58Z) - Scaling Distributed Deep Learning Workloads beyond the Memory Capacity
with KARMA [58.040931661693925]
冗長な再計算とアウト・オブ・コアの手法を組み合わせた戦略を提案する。
最先端のアウト・オブ・コア手法を用いて,6種類のモデルで平均1.22倍の高速化を実現した。
我々のデータ並列化ソリューションは,Megatron-LMやTurning-NLGといった大規模モデルのトレーニングにおいて,複雑なハイブリッドモデル並列性よりも優れる。
論文 参考訳(メタデータ) (2020-08-26T07:24:34Z) - An Online Method for A Class of Distributionally Robust Optimization
with Non-Convex Objectives [54.29001037565384]
本稿では,オンライン分散ロバスト最適化(DRO)のクラスを解決するための実用的なオンライン手法を提案する。
本研究は,ネットワークの堅牢性向上のための機械学習における重要な応用を実証する。
論文 参考訳(メタデータ) (2020-06-17T20:19:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。