論文の概要: FLRNet: A Deep Learning Method for Regressive Reconstruction of Flow Field From Limited Sensor Measurements
- arxiv url: http://arxiv.org/abs/2411.13815v1
- Date: Thu, 21 Nov 2024 03:40:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-22 15:18:01.532623
- Title: FLRNet: A Deep Learning Method for Regressive Reconstruction of Flow Field From Limited Sensor Measurements
- Title(参考訳): FLRNet:限定センサによる流れ場の回帰再構成のための深層学習手法
- Authors: Phong C. H. Nguyen, Joseph B. Choi, Quang-Trung Luu,
- Abstract要約: スパースセンサ計測による流れ場再構成のための深層学習手法であるFLRNetを導入する。
各種流動条件およびセンサ構成下でのFLRNetの再構成能力と一般化性について検証した。
- 参考スコア(独自算出の注目度): 0.2621730497733947
- License:
- Abstract: Many applications in computational and experimental fluid mechanics require effective methods for reconstructing the flow fields from limited sensor data. However, this task remains a significant challenge because the measurement operator, which provides the punctual sensor measurement for a given state of the flow field, is often ill-conditioned and non-invertible. This issue impedes the feasibility of identifying the forward map, theoretically the inverse of the measurement operator, for field reconstruction purposes. While data-driven methods are available, their generalizability across different flow conditions (\textit{e.g.,} different Reynold numbers) remains questioned. Moreover, they frequently face the problem of spectral bias, which leads to smooth and blurry reconstructed fields, thereby decreasing the accuracy of reconstruction. We introduce FLRNet, a deep learning method for flow field reconstruction from sparse sensor measurements. FLRNet employs an variational autoencoder with Fourier feature layers and incorporates an extra perceptual loss term during training to learn a rich, low-dimensional latent representation of the flow field. The learned latent representation is then correlated to the sensor measurement using a fully connected (dense) network. We validated the reconstruction capability and the generalizability of FLRNet under various fluid flow conditions and sensor configurations, including different sensor counts and sensor layouts. Numerical experiments show that in all tested scenarios, FLRNet consistently outperformed other baselines, delivering the most accurate reconstructed flow field and being the most robust to noise.
- Abstract(参考訳): 計算および実験流体力学における多くの応用は、限られたセンサデータから流れ場を再構築する効果的な方法を必要とする。
しかし、この課題は、流れ場の所定の状態に対する時空間センサの測定を行うオペレーターが、しばしば不調で非可逆であるため、重要な課題である。
この問題は、フィールド再構成の目的のために、理論上は測定演算子の逆である前方写像を識別できる可能性を妨げる。
データ駆動の手法が利用可能であるが、その一般化性は異なるフロー条件 (\textit{e g ,} 異なるレイノルズ数) にわたって疑問が残る。
さらに、しばしばスペクトルバイアスの問題に直面するため、滑らかでぼやけた再構成フィールドが生じるため、復元の精度が低下する。
スパースセンサによる流れ場再構成のための深層学習手法であるFLRNetを導入する。
FLRNetは、フーリエ特徴層を持つ変分オートエンコーダを採用し、トレーニング中に知覚的損失項を組み込んで、フローフィールドのリッチで低次元の潜在表現を学習する。
学習した潜伏表現は、完全に接続された(高密度)ネットワークを用いたセンサ計測と相関する。
本研究では, センサ数やセンサレイアウトなど, 各種流動条件およびセンサ構成下でのFLRNetの再構築能力と一般化性について検証した。
数値実験により、全てのテストシナリオにおいて、FLRNetは他のベースラインを一貫して上回り、最も正確に再構成された流れ場を提供し、ノイズに対して最も堅牢であることが示された。
関連論文リスト
- FLRONet: Deep Operator Learning for High-Fidelity Fluid Flow Field Reconstruction from Sparse Sensor Measurements [0.0]
本研究では,スパースセンサによる流体流れ場再構築のための深層演算子学習フレームワークであるFLRONetを紹介する。
FLRONetは、センサ測定が不正確な場合や欠落の場合であっても、高いレベルの再現精度と堅牢性を達成する。
論文 参考訳(メタデータ) (2024-12-11T01:28:48Z) - WiNet: Wavelet-based Incremental Learning for Efficient Medical Image Registration [68.25711405944239]
深部画像登録は異常な精度と高速な推測を示した。
近年の進歩は、粗大から粗大の方法で密度変形場を推定するために、複数のカスケードまたはピラミッドアーキテクチャを採用している。
本稿では,様々なスケールにわたる変位/速度場に対して,スケールワイブレット係数を漸進的に推定するモデル駆動WiNetを提案する。
論文 参考訳(メタデータ) (2024-07-18T11:51:01Z) - Leveraging arbitrary mobile sensor trajectories with shallow recurrent
decoder networks for full-state reconstruction [4.243926243206826]
LSTM(long, short-term memory)ネットワークやデコーダネットワークのようなシーケンス・ツー・ベクター・モデルでは,動的情報を全状態空間推定にマッピング可能であることを示す。
ネットワークアーキテクチャの例外的な性能は、3つのアプリケーションで実証される。
論文 参考訳(メタデータ) (2023-07-20T21:42:01Z) - FR3D: Three-dimensional Flow Reconstruction and Force Estimation for
Unsteady Flows Around Extruded Bluff Bodies via Conformal Mapping Aided
Convolutional Autoencoders [0.0]
本稿では,畳み込み型自己エンコーダに基づくニューラルネットワークモデルFR3Dを提案する。
FR3Dモデルは数ポイントの誤差で圧力と速度の成分を再構成する。
論文 参考訳(メタデータ) (2023-02-03T15:13:57Z) - Deep learning fluid flow reconstruction around arbitrary two-dimensional
objects from sparse sensors using conformal mappings [0.0]
本研究では,SMGFRタスクと呼ばれる新しいフレームワークを提案する。
異なる2次元物体の周りの流体を再学習することなく再構成することができる。
SMGFRタスクは将来的に流動スナップショットの予測に拡張される。
論文 参考訳(メタデータ) (2022-02-08T11:44:16Z) - GMFlow: Learning Optical Flow via Global Matching [124.57850500778277]
光フロー推定学習のためのGMFlowフレームワークを提案する。
機能拡張のためのカスタマイズトランスフォーマー、グローバル機能マッチングのための相関層とソフトマックス層、フロー伝搬のための自己保持層である。
我々の新しいフレームワークは、挑戦的なSintelベンチマークにおいて、32項目RAFTのパフォーマンスより優れています。
論文 参考訳(メタデータ) (2021-11-26T18:59:56Z) - Sensor-Guided Optical Flow [53.295332513139925]
本稿では、未知の領域や未知の領域において、より優れた精度を実現するために、外部キューを用いた光フローネットワークを誘導するフレームワークを提案する。
能動センサからの深度測定と幾何および手作り光学フローアルゴリズムを組み合わせることで,これらがどのように得られるかを示す。
論文 参考訳(メタデータ) (2021-09-30T17:59:57Z) - Real-time detection of uncalibrated sensors using Neural Networks [62.997667081978825]
オンライン学習に基づく温度・湿度・圧力センサの非校正検出装置を開発した。
このソリューションはニューラルネットワークをメインコンポーネントとして統合し、校正条件下でのセンサーの動作から学習する。
その結果, 提案手法は, 偏差値0.25度, 1% RH, 1.5Paの偏差をそれぞれ検出できることがわかった。
論文 参考訳(メタデータ) (2021-02-02T15:44:39Z) - Global field reconstruction from sparse sensors with Voronoi
tessellation-assisted deep learning [0.0]
任意の数の任意の位置センサに対して,構造化格子を用いた深層学習に基づくデータ駆動型空間場復元手法を提案する。
提案手法は,実時間グローバルフィールド推定のためのニューラルネットワークの実用化に向けた新たな道を開く。
論文 参考訳(メタデータ) (2021-01-03T03:43:53Z) - A Point-Cloud Deep Learning Framework for Prediction of Fluid Flow
Fields on Irregular Geometries [62.28265459308354]
ネットワークは空間位置とCFD量のエンドツーエンドマッピングを学習する。
断面形状の異なるシリンダーを過ぎる非圧縮層状定常流を考察する。
ネットワークは従来のCFDの数百倍の速さで流れ場を予測する。
論文 参考訳(メタデータ) (2020-10-15T12:15:02Z) - LiteFlowNet3: Resolving Correspondence Ambiguity for More Accurate
Optical Flow Estimation [99.19322851246972]
本稿では,光フロー推定の問題に対処する2つのモジュールからなるディープネットワークである LiteFlowNet3 を紹介する。
LiteFlowNet3は、公開ベンチマークで有望な結果を達成するだけでなく、小さなモデルサイズと高速なランタイムも備えている。
論文 参考訳(メタデータ) (2020-07-18T03:30:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。