論文の概要: SURFNet: Super-resolution of Turbulent Flows with Transfer Learning
using Small Datasets
- arxiv url: http://arxiv.org/abs/2108.07667v1
- Date: Tue, 17 Aug 2021 14:53:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-18 16:21:32.006394
- Title: SURFNet: Super-resolution of Turbulent Flows with Transfer Learning
using Small Datasets
- Title(参考訳): SURFNet:小さなデータセットを用いた伝達学習による乱流の超解像
- Authors: Octavi Obiols-Sales, Abhinav Vishnu, Nicholas Malaya, and Aparna
Chandramowlishwaran
- Abstract要約: 本稿では,転写学習に基づく超解像流ネットワークであるSURFNetを紹介する。
SURFNetは主に低解像度データセット上でDLモデルをトレーニングし、転送は少数の高解像度フロー問題でモデルを学習する。
粗いモデルよりも最大256倍の入力解像度で乱流状態におけるナビエ・ストークス方程式を解くことにより、SURFNetの性能を実証的に評価する。
- 参考スコア(独自算出の注目度): 0.9297355862757838
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Learning (DL) algorithms are emerging as a key alternative to
computationally expensive CFD simulations. However, state-of-the-art DL
approaches require large and high-resolution training data to learn accurate
models. The size and availability of such datasets are a major limitation for
the development of next-generation data-driven surrogate models for turbulent
flows. This paper introduces SURFNet, a transfer learning-based
super-resolution flow network. SURFNet primarily trains the DL model on
low-resolution datasets and transfer learns the model on a handful of
high-resolution flow problems - accelerating the traditional numerical solver
independent of the input size. We propose two approaches to transfer learning
for the task of super-resolution, namely one-shot and incremental learning.
Both approaches entail transfer learning on only one geometry to account for
fine-grid flow fields requiring 15x less training data on high-resolution
inputs compared to the tiny resolution (64x256) of the coarse model,
significantly reducing the time for both data collection and training. We
empirically evaluate SURFNet's performance by solving the Navier-Stokes
equations in the turbulent regime on input resolutions up to 256x larger than
the coarse model. On four test geometries and eight flow configurations unseen
during training, we observe a consistent 2-2.1x speedup over the OpenFOAM
physics solver independent of the test geometry and the resolution size (up to
2048x2048), demonstrating both resolution-invariance and generalization
capabilities. Our approach addresses the challenge of reconstructing
high-resolution solutions from coarse grid models trained using low-resolution
inputs (super-resolution) without loss of accuracy and requiring limited
computational resources.
- Abstract(参考訳): 計算コストの高いCFDシミュレーションの代替手段として、ディープラーニング(DL)アルゴリズムが登場している。
しかし、最先端のDLアプローチでは、正確なモデルを学習するために、大規模かつ高解像度のトレーニングデータが必要である。
このようなデータセットのサイズと可用性は、乱流の次世代データ駆動サロゲートモデルの開発において大きな制限となる。
本稿では,転写学習に基づく超解像流ネットワークであるSURFNetを紹介する。
SURFNetは、主に低解像度データセット上でDLモデルをトレーニングし、いくつかの高解像度フロー問題(入力サイズに依存しない従来の数値解法)でモデルを学習する。
本稿では,超解像処理,すなわちワンショット学習とインクリメンタル学習の2つの方法を提案する。
どちらも、粗いモデルの小さな解像度 (64x256) と比較して、高解像度の入力で15分の1のトレーニングデータを必要とする細粒度の流れ場を考慮に入れ、データ収集とトレーニングの両方の時間を大幅に短縮する。
我々は,粗いモデルより最大256倍大きい入力解像度の乱流状態におけるnavier-stokes方程式を解いて,surfnetの性能を実験的に評価する。
4つのテストジオメトリと8つのフロー構成について,テスト幾何学と解像度サイズ(最大2048x2048)とは無関係に,openfoam物理ソルバ上で一貫した2-2.1倍の速度アップを観測し,分解能非分散性と一般化能力を示した。
本研究では,低解像度入力(スーパーレゾリューション)を用いて学習した粗いグリッドモデルから,精度を損なうことなく,計算資源を限定した高分解能解を再構成する手法を提案する。
関連論文リスト
- Greedy Growing Enables High-Resolution Pixel-Based Diffusion Models [41.67994377132345]
本稿では,アーキテクチャを高分解能なエンドツーエンドモデルに成長させるグレディアルゴリズムを提案する。
これにより、超高解像度のカスケードを必要とせずに高解像度の画像を生成できる単一ステージモデルを実現することができる。
この結果から,非カスケードモデルから最大8Bパラメータまで,さらなる正規化スキームを使わずにトレーニングできることが示唆された。
論文 参考訳(メタデータ) (2024-05-27T02:12:39Z) - Diffusion-Based Neural Network Weights Generation [80.89706112736353]
D2NWGは拡散に基づくニューラルネットワーク重み生成技術であり、転送学習のために高性能な重みを効率よく生成する。
本稿では,ニューラルネットワーク重み生成のための遅延拡散パラダイムを再放送するために,生成的ハイパー表現学習を拡張した。
我々のアプローチは大規模言語モデル(LLM)のような大規模アーキテクチャにスケーラブルであり、現在のパラメータ生成技術の限界を克服しています。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - Towards a Better Theoretical Understanding of Independent Subnetwork Training [56.24689348875711]
独立サブネットワークトレーニング(IST)の理論的考察
ISTは、上記の問題を解決するための、最近提案され、非常に効果的である。
圧縮通信を用いた分散手法など,ISTと代替手法の基本的な違いを同定する。
論文 参考訳(メタデータ) (2023-06-28T18:14:22Z) - Learning Controllable Adaptive Simulation for Multi-resolution Physics [86.8993558124143]
完全深層学習に基づくサロゲートモデルとして,LAMP(Learning Controllable Adaptive Simulation for Multi- resolution Physics)を導入した。
LAMPは、前方進化を学習するためのグラフニューラルネットワーク(GNN)と、空間的洗練と粗大化のポリシーを学ぶためのGNNベースのアクター批判で構成されている。
我々は,LAMPが最先端のディープラーニングサロゲートモデルより優れており,長期予測誤差を改善するために,適応的なトレードオフ計算が可能であることを実証した。
論文 参考訳(メタデータ) (2023-05-01T23:20:27Z) - Learning to Optimize Permutation Flow Shop Scheduling via Graph-based
Imitation Learning [70.65666982566655]
置換フローショップスケジューリング(PFSS)は製造業で広く使われている。
我々は,より安定かつ正確に収束を加速する専門家主導の模倣学習を通じてモデルを訓練することを提案する。
我々のモデルのネットワークパラメータはわずか37%に減少し、エキスパートソリューションに対する我々のモデルの解のギャップは平均6.8%から1.3%に減少する。
論文 参考訳(メタデータ) (2022-10-31T09:46:26Z) - Machine Learning-Accelerated Computational Solid Mechanics: Application
to Linear Elasticity [0.0]
我々は、高解像度ラベル付きデータを用いることなく、物理系の支配方程式と境界条件を利用してモデルを訓練する。
超解場は、粗いメッシュ解像度の400倍の精度で進行数値計算器の精度と一致することを示した。
論文 参考訳(メタデータ) (2021-12-16T07:39:50Z) - Stacked Generative Machine Learning Models for Fast Approximations of
Steady-State Navier-Stokes Equations [1.4150517264592128]
種々の境界条件下で定常なナビエ・ストークス方程式を解くために弱教師付きアプローチを開発する。
ラベル付きシミュレーションデータを使わずに最先端の結果を得られる。
我々は、N-S方程式の数値解を生成する複雑さを増大させる積み重ねモデルを訓練する。
論文 参考訳(メタデータ) (2021-12-13T05:08:55Z) - Multi-Scale Aligned Distillation for Low-Resolution Detection [68.96325141432078]
本稿では,高分解能モデルや多分解能モデルから知識を抽出することで,低分解能モデルの性能を向上させることに焦点を当てる。
いくつかのインスタンスレベルの検出タスクとデータセットにおいて,本手法を用いて訓練された低解像度モデルと,従来のマルチスケールトレーニングによる訓練された高解像度モデルとを競合的に処理する。
論文 参考訳(メタデータ) (2021-09-14T12:53:35Z) - A comparative study of various Deep Learning techniques for
spatio-temporal Super-Resolution reconstruction of Forced Isotropic Turbulent
flows [0.45935798913942893]
本研究では,様々な最先端機械学習技術を用いて,空間的・時間的に乱流場の超解像解析を行う。
この研究で使用されるデータセットは、ジョンズ・ホプキンス乱流データベースの一部である「等方性1024粗い」データセットから抽出される。
論文 参考訳(メタデータ) (2021-07-07T17:16:55Z) - Deep Learning for Efficient Reconstruction of High-Resolution Turbulent
DNS Data [0.0]
大規模渦シミュレーション(LES)は、低分解能(LR)グリッド上の流体流れを解くために、より計算的に効率的なアプローチを示す。
本稿では,解の忠実度と計算複雑性のトレードオフを軽減することを目的とした,新しいディープラーニングフレームワークSR-DNS Netを提案する。
提案モデルでは,LESの高忠実度DNSデータを低解像度の解のように効率的に再構成し,良好な再現基準を得る。
論文 参考訳(メタデータ) (2020-10-21T23:37:58Z) - An Online Method for A Class of Distributionally Robust Optimization
with Non-Convex Objectives [54.29001037565384]
本稿では,オンライン分散ロバスト最適化(DRO)のクラスを解決するための実用的なオンライン手法を提案する。
本研究は,ネットワークの堅牢性向上のための機械学習における重要な応用を実証する。
論文 参考訳(メタデータ) (2020-06-17T20:19:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。