論文の概要: FLRONet: Deep Operator Learning for High-Fidelity Fluid Flow Field Reconstruction from Sparse Sensor Measurements
- arxiv url: http://arxiv.org/abs/2412.08009v2
- Date: Thu, 12 Dec 2024 02:58:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-13 13:31:01.371298
- Title: FLRONet: Deep Operator Learning for High-Fidelity Fluid Flow Field Reconstruction from Sparse Sensor Measurements
- Title(参考訳): FLRONet:スパースセンサによる高密度流体場再構成のための深部演算子学習
- Authors: Hiep Vo Dang, Joseph B. Choi, Phong C. H. Nguyen,
- Abstract要約: FLRONetは、空間と時間におけるスパースセンサー測定からフルステートフローフィールドを再構築するために設計された、新しい演算子学習フレームワークである。
FLRONetは真の演算子を近似する際の優れた性能を実現し、高忠実度離散化においてかなり高速な推論を示す。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The ability to reconstruct high-fidelity fluid flow fields from sparse sensor measurement is critical for many science and engineering applications, but remains a huge challenge. This challenge is caused by the large difference between the dimensions of the state space and the observational space, making the operator that provides the mapping from the state space to the observational space ill-conditioned and non-invertible. As a result, deriving the forward map from the observational space to the state space as the inverse of the measurement operator is nearly impossible. While traditional methods, including sparse optimization, data assimilation, or machine learning based regressive reconstruction, are available, they often struggle with generalization and computational efficiency, particularly when non-uniform or varying discretization of the domain are considered. In this work, we propose FLRONet, a novel operator learning framework designed to reconstruct full-state flow fields from sparse sensor measurements in space and time. FLRONet utilizes a branch-trunk architecture, where the branch network integrates sensor observations from multiple time instances, and the trunk network encodes the entire temporal domain. This design allows FLRONet to achieve highly accurate, discretization-independent reconstructions at any time within the observation window. Although the popular three-dimensional Fourier Neural Operator offers similar functionalities, our results show that FLRONet surpasses it in both accuracy and efficiency. FLRONet not only achieves superior performance in approximating the true operator but also exhibits significantly faster inference at high-fidelity discretizations.
- Abstract(参考訳): スパースセンサー計測から高忠実度流体場を再構築する能力は多くの科学・工学的応用において重要であるが、依然として大きな課題である。
この問題は状態空間と観測空間の次元の大きな違いによって引き起こされ、状態空間から観測空間への写像を提供する作用素は不条件で非可逆である。
その結果、観測空間から状態空間への前方マップの導出は、測定演算子の逆数としてほぼ不可能である。
スパース最適化、データ同化、機械学習に基づく回帰再構成といった従来の手法は利用可能であるが、一般化と計算効率に苦慮することが多い。
本研究では,空間と時間におけるスパースセンサ計測からフルステートフロー場を再構築する新しい演算子学習フレームワークであるFLRONetを提案する。
FLRONetはブランチトランクアーキテクチャを使用し、ブランチネットワークは複数のタイムインスタンスからのセンサ観測を統合し、トランクネットワークは時間領域全体をエンコードする。
この設計により、FLRONetは観測窓内でいつでも精度が高く、離散化に依存しない再構築を行うことができる。
一般的な3次元フーリエニューラル演算子も同様の機能を持つが、この結果はFLRONetが精度と効率の両方でそれを上回っていることを示している。
FLRONetは真の演算子を近似する上で優れた性能を発揮するだけでなく、高忠実度離散化においてかなり高速な推論を示す。
関連論文リスト
- FLRNet: A Deep Learning Method for Regressive Reconstruction of Flow Field From Limited Sensor Measurements [0.2621730497733947]
スパースセンサ計測による流れ場再構成のための深層学習手法であるFLRNetを導入する。
各種流動条件およびセンサ構成下でのFLRNetの再構成能力と一般化性について検証した。
論文 参考訳(メタデータ) (2024-11-21T03:40:34Z) - AccFlow: Backward Accumulation for Long-Range Optical Flow [70.4251045372285]
本稿では、長距離光フロー推定のためのAccFlowと呼ばれる新しいリカレントフレームワークを提案する。
従来の前方累積よりも後方累積の方が優れていることを示す。
長距離光流量推定におけるAccFlowの有効性を検証する実験
論文 参考訳(メタデータ) (2023-08-25T01:51:26Z) - Leveraging arbitrary mobile sensor trajectories with shallow recurrent
decoder networks for full-state reconstruction [4.243926243206826]
LSTM(long, short-term memory)ネットワークやデコーダネットワークのようなシーケンス・ツー・ベクター・モデルでは,動的情報を全状態空間推定にマッピング可能であることを示す。
ネットワークアーキテクチャの例外的な性能は、3つのアプリケーションで実証される。
論文 参考訳(メタデータ) (2023-07-20T21:42:01Z) - Unsupervised Cross-Domain Soft Sensor Modelling via Deep
Physics-Inspired Particle Flow Bayes [3.2307729081989334]
クロスドメイン・ソフト・センサ・モデリングのためのディープ・パーティクル・フロー・ベイズ・フレームワークを提案する。
特に、まずシーケンシャルベイズ目標を定式化し、最大推定を行う。
複雑な産業用多相流プロセスシステムにおけるフレームワークの有効性を検証した。
論文 参考訳(メタデータ) (2023-06-08T03:43:32Z) - RecFNO: a resolution-invariant flow and heat field reconstruction method
from sparse observations via Fourier neural operator [8.986743262828009]
本稿では,RecFNOという優れた性能とメッシュ転送性を備えたエンド・ツー・エンドの物理場再構成手法を提案する。
提案手法は, スパース観測から無限次元空間における流れと熱場への写像を学習することを目的としている。
流体力学および熱力学に関する実験により,提案手法は既存のPOD法およびCNN法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2023-02-20T07:20:22Z) - DepthFormer: Exploiting Long-Range Correlation and Local Information for
Accurate Monocular Depth Estimation [50.08080424613603]
高精度な単分子深度推定には長距離相関が不可欠である。
我々は,このグローバルコンテキストを効果的な注意機構でモデル化するためにTransformerを活用することを提案する。
提案したモデルであるDepthFormerは、最先端のモノクル深度推定手法をはるかに超えている。
論文 参考訳(メタデータ) (2022-03-27T05:03:56Z) - Semantic Perturbations with Normalizing Flows for Improved
Generalization [62.998818375912506]
我々は、非教師付きデータ拡張を定義するために、潜在空間における摂動が利用できることを示す。
トレーニングを通して分類器に適応する潜伏性対向性摂動が最も効果的であることが判明した。
論文 参考訳(メタデータ) (2021-08-18T03:20:00Z) - Adaptive Latent Space Tuning for Non-Stationary Distributions [62.997667081978825]
本稿では,ディープエンコーダ・デコーダ方式cnnの低次元潜在空間の適応チューニング法を提案する。
粒子加速器における時間変動荷電粒子ビームの特性を予測するためのアプローチを実証する。
論文 参考訳(メタデータ) (2021-05-08T03:50:45Z) - Global field reconstruction from sparse sensors with Voronoi
tessellation-assisted deep learning [0.0]
任意の数の任意の位置センサに対して,構造化格子を用いた深層学習に基づくデータ駆動型空間場復元手法を提案する。
提案手法は,実時間グローバルフィールド推定のためのニューラルネットワークの実用化に向けた新たな道を開く。
論文 参考訳(メタデータ) (2021-01-03T03:43:53Z) - A Point-Cloud Deep Learning Framework for Prediction of Fluid Flow
Fields on Irregular Geometries [62.28265459308354]
ネットワークは空間位置とCFD量のエンドツーエンドマッピングを学習する。
断面形状の異なるシリンダーを過ぎる非圧縮層状定常流を考察する。
ネットワークは従来のCFDの数百倍の速さで流れ場を予測する。
論文 参考訳(メタデータ) (2020-10-15T12:15:02Z) - Deep Soft Procrustes for Markerless Volumetric Sensor Alignment [81.13055566952221]
本研究では、より堅牢なマルチセンサ空間アライメントを実現するために、マーカーレスデータ駆動対応推定を改善する。
我々は、幾何学的制約を終末的に典型的なセグメンテーションベースモデルに組み込み、対象のポーズ推定タスクと中間密な分類タスクをブリッジする。
実験により,マーカーベースの手法で同様の結果が得られ,マーカーレス手法よりも優れ,またキャリブレーション構造のポーズ変動にも頑健であることがわかった。
論文 参考訳(メタデータ) (2020-03-23T10:51:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。