論文の概要: Deep learning fluid flow reconstruction around arbitrary two-dimensional
objects from sparse sensors using conformal mappings
- arxiv url: http://arxiv.org/abs/2202.03798v1
- Date: Tue, 8 Feb 2022 11:44:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-09 22:23:46.202904
- Title: Deep learning fluid flow reconstruction around arbitrary two-dimensional
objects from sparse sensors using conformal mappings
- Title(参考訳): 共形写像を用いたスパースセンサからの任意の2次元物体まわりの深層学習流体流れの再構成
- Authors: Ali Girayhan \"Ozbay and Sylvain Laizet
- Abstract要約: 本研究では,SMGFRタスクと呼ばれる新しいフレームワークを提案する。
異なる2次元物体の周りの流体を再学習することなく再構成することができる。
SMGFRタスクは将来的に流動スナップショットの予測に拡張される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The usage of deep neural networks (DNNs) for flow reconstruction (FR) tasks
from a limited number of sensors is attracting strong research interest, owing
to DNNs' ability to replicate very high dimensional relationships. Trained over
a single flow case for a given Reynolds number or over a reduced range of
Reynolds numbers, these models are unfortunately not able to handle fluid flows
around different objects without re-training. In this work, we propose a new
framework called Spatial Multi-Geometry FR (SMGFR) task, capable of
reconstructing fluid flows around different two-dimensional objects without
re-training, mapping the computational domain as an annulus. Different DNNs for
different sensor setups (where information about the flow is collected) are
trained with high-fidelity simulation data for a Reynolds number equal to
approximately $300$ for 64 objects randomly generated using Bezier curves. The
performance of the models and sensor setups are then assessed for the flow
around 16 unseen objects. It is shown that our mapping approach improves
percentage errors by up to 15\% in SMGFR when compared to a more conventional
approach where the models are trained on a Cartesian grid. Finally, the SMGFR
task is extended to predictions of fluid flow snapshots in the future,
introducing the Spatio-temporal MGFR (STMGFR) task. For this spatio-temporal
reconstruction task, a novel approach is developed involving splitting DNNs
into a spatial and a temporal component. Our results demonstrate that this
approach is able to reproduce, in time and in space, the main features of a
fluid flow around arbitrary objects.
- Abstract(参考訳): 限られたセンサーからのフロー再構成(FR)タスクに対するディープニューラルネットワーク(DNN)の使用は、非常に高次元の関係を再現するDNNの能力のために、強い研究関心を集めている。
与えられたレイノルズ数に対して1つのフローケース、あるいはレイノルズ数の範囲を減らして訓練されたこれらのモデルは、残念ながら、再学習することなく異なる物体の周りの流体を処理できない。
本研究では,空間的多次元fr(smgfr)タスクと呼ばれる新しい枠組みを提案し,計算領域を環状として再訓練することなく,異なる2次元物体まわりの流体の流れを再構成する手法を提案する。
異なるセンサ設定のための異なるDNN(フローに関する情報が収集される)は、Bezier曲線を用いてランダムに生成された64オブジェクトに対して約300ドルのレイノルズ数に対する高忠実度シミュレーションデータで訓練される。
モデルとセンサーのセットアップのパフォーマンスは、16個の見えない物体のまわりの流れによって評価される。
提案手法は,モデルがデカルト格子上でトレーニングされる従来の手法と比較して,smgfrの誤差を最大15\%改善することを示した。
最後に、SMGFRタスクは将来、流体流スナップショットの予測に拡張され、時空間MGFRタスクが導入される。
この時空間再構成タスクでは,DNNを空間的,時間的要素に分割する新たな手法が開発されている。
その結果, このアプローチは, 時間的, 空間的に, 任意の物体まわりの流体の流れの主な特徴を再現できることがわかった。
関連論文リスト
- FLRNet: A Deep Learning Method for Regressive Reconstruction of Flow Field From Limited Sensor Measurements [0.2621730497733947]
スパースセンサ計測による流れ場再構成のための深層学習手法であるFLRNetを導入する。
各種流動条件およびセンサ構成下でのFLRNetの再構成能力と一般化性について検証した。
論文 参考訳(メタデータ) (2024-11-21T03:40:34Z) - FR3D: Three-dimensional Flow Reconstruction and Force Estimation for
Unsteady Flows Around Extruded Bluff Bodies via Conformal Mapping Aided
Convolutional Autoencoders [0.0]
本稿では,畳み込み型自己エンコーダに基づくニューラルネットワークモデルFR3Dを提案する。
FR3Dモデルは数ポイントの誤差で圧力と速度の成分を再構成する。
論文 参考訳(メタデータ) (2023-02-03T15:13:57Z) - Deep Dynamic Scene Deblurring from Optical Flow [53.625999196063574]
汚れは視覚的により快適な写真を提供し、写真がより便利になる。
非均一な曖昧さを数学的にモデル化することは困難である。
我々は,難解な特徴から鮮明な画像を復元する畳み込みニューラルネットワーク(CNN)を開発した。
論文 参考訳(メタデータ) (2023-01-18T06:37:21Z) - An AI-based Domain-Decomposition Non-Intrusive Reduced-Order Model for
Extended Domains applied to Multiphase Flow in Pipes [0.0]
ドメイン分解フレームワーク内で,AIをベースとした非侵襲的低次モデルを提案する。
トレーニングで使用するドメインよりもはるかに大きなドメインの予測を行うことができる。
高忠実度CFDシミュレーションでAI-DDNIROMを訓練した水平管内の多相スラグ流に適用した。
論文 参考訳(メタデータ) (2022-02-13T00:32:17Z) - Adaptive Machine Learning for Time-Varying Systems: Low Dimensional
Latent Space Tuning [91.3755431537592]
本稿では,時間変化システムを対象とした適応機械学習手法を提案する。
我々は,エンコーダデコーダCNNのエンコーダ部出力において,非常に高次元(N>100k)の入力を低次元(N2)潜在空間にマッピングする。
そこで本手法では,割り込みを伴わないフィードバックに基づいて,内部の相関関係を学習し,その進化をリアルタイムで追跡する。
論文 参考訳(メタデータ) (2021-07-13T16:05:28Z) - Physics-aware deep neural networks for surrogate modeling of turbulent
natural convection [0.0]
Rayleigh-B'enard乱流流に対するPINNのサーロゲートモデルの使用を検討する。
標準ピンの精度が低いゾーンであるトレーニング境界に近い正規化として、どのように機能するかを示す。
50億のDNS座標全体のサロゲートの予測精度は、相対的なL2ノルムで[0.3% -- 4%]の範囲のすべてのフロー変数のエラーをもたらします。
論文 参考訳(メタデータ) (2021-03-05T09:48:57Z) - Machine learning for rapid discovery of laminar flow channel wall
modifications that enhance heat transfer [56.34005280792013]
任意の, 平坦な, 非平坦なチャネルの正確な数値シミュレーションと, ドラッグ係数とスタントン数を予測する機械学習モデルを組み合わせる。
畳み込みニューラルネットワーク(CNN)は,数値シミュレーションのわずかな時間で,目標特性を正確に予測できることを示す。
論文 参考訳(メタデータ) (2021-01-19T16:14:02Z) - Deep Cellular Recurrent Network for Efficient Analysis of Time-Series
Data with Spatial Information [52.635997570873194]
本研究では,空間情報を用いた複雑な多次元時系列データを処理するための新しいディープセルリカレントニューラルネットワーク(DCRNN)アーキテクチャを提案する。
提案するアーキテクチャは,文献に比較して,学習可能なパラメータをかなり少なくしつつ,最先端の性能を実現している。
論文 参考訳(メタデータ) (2021-01-12T20:08:18Z) - A Point-Cloud Deep Learning Framework for Prediction of Fluid Flow
Fields on Irregular Geometries [62.28265459308354]
ネットワークは空間位置とCFD量のエンドツーエンドマッピングを学習する。
断面形状の異なるシリンダーを過ぎる非圧縮層状定常流を考察する。
ネットワークは従来のCFDの数百倍の速さで流れ場を予測する。
論文 参考訳(メタデータ) (2020-10-15T12:15:02Z) - Predicting the flow field in a U-bend with deep neural networks [0.0]
本稿では計算流体力学(CFD)と深部ニューラルネットワークに基づく,異なる歪んだU字管内の流れ場を予測することを目的とした研究について述べる。
この研究の主な動機は、流体力学的船体最適化プロセスにおけるディープラーニングパラダイムの正当化に関する洞察を得ることであった。
論文 参考訳(メタデータ) (2020-10-01T09:03:02Z) - Combining Differentiable PDE Solvers and Graph Neural Networks for Fluid
Flow Prediction [79.81193813215872]
我々は,従来のグラフ畳み込みネットワークと,ネットワーク内部に組込み可能な流体力学シミュレータを組み合わせたハイブリッド(グラフ)ニューラルネットワークを開発した。
ニューラルネットワークのCFD予測の大幅な高速化により,新たな状況に十分対応できることが示される。
論文 参考訳(メタデータ) (2020-07-08T21:23:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。