論文の概要: Neural Particle Image Velocimetry
- arxiv url: http://arxiv.org/abs/2101.11950v1
- Date: Thu, 28 Jan 2021 12:03:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-01-31 17:59:41.976462
- Title: Neural Particle Image Velocimetry
- Title(参考訳): ニューラル粒子画像速度測定
- Authors: Nikolay Stulov and Michael Chertkov
- Abstract要約: 本稿では,この問題に適応した畳み込みニューラルネットワーク,すなわちボリューム対応ネットワーク(VCN)を紹介する。
ネットワークは、合成データと実フローデータの両方を含むデータセット上で、徹底的にトレーニングされ、テストされる。
解析の結果,提案手法は現場における他の最先端手法と同等の精度を保ちながら,効率の向上を図っている。
- 参考スコア(独自算出の注目度): 4.416484585765027
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the past decades, great progress has been made in the field of optical and
particle-based measurement techniques for experimental analysis of fluid flows.
Particle Image Velocimetry (PIV) technique is widely used to identify flow
parameters from time-consecutive snapshots of particles injected into the
fluid. The computation is performed as post-processing of the experimental data
via proximity measure between particles in frames of reference. However, the
post-processing step becomes problematic as the motility and density of the
particles increases, since the data emerges in extreme rates and volumes.
Moreover, existing algorithms for PIV either provide sparse estimations of the
flow or require large computational time frame preventing from on-line use. The
goal of this manuscript is therefore to develop an accurate on-line algorithm
for estimation of the fine-grained velocity field from PIV data. As the data
constitutes a pair of images, we employ computer vision methods to solve the
problem. In this work, we introduce a convolutional neural network adapted to
the problem, namely Volumetric Correspondence Network (VCN) which was recently
proposed for the end-to-end optical flow estimation in computer vision. The
network is thoroughly trained and tested on a dataset containing both synthetic
and real flow data. Experimental results are analyzed and compared to that of
conventional methods as well as other recently introduced methods based on
neural networks. Our analysis indicates that the proposed approach provides
improved efficiency also keeping accuracy on par with other state-of-the-art
methods in the field. We also verify through a-posteriori tests that our newly
constructed VCN schemes are reproducing well physically relevant statistics of
velocity and velocity gradients.
- Abstract(参考訳): 過去数十年間、流体の実験的解析のための光学的および粒子ベースの計測技術において大きな進歩を遂げてきた。
粒子速度測定(Particle Image Velocimetry, PIV)技術は, 流体中に注入された粒子の経時的スナップショットから, 流れパラメータの同定に広く用いられている。
この計算は、参照フレーム内の粒子間の近接測定による実験データの後処理として実行される。
しかし、データは極端な速度と体積で現れるため、粒子の運動性や密度が増加するにつれて、後処理のステップが問題になる。
さらに、既存のPIVアルゴリズムは、フローのスパース推定を提供するか、オンライン使用を阻止する大規模な計算時間フレームを必要とする。
そこで本稿の目的は,PIVデータから微粒速度場を推定するためのオンラインアルゴリズムを開発することである。
データが一対のイメージを構成するため、この問題を解決するためにコンピュータビジョン手法を用いる。
本稿では,この問題に適応した畳み込みニューラルネットワーク,すなわち,コンピュータビジョンにおけるエンドツーエンド光フロー推定のために最近提案されたボリューム対応ネットワーク(vcn)を提案する。
ネットワークは、合成データと実フローデータの両方を含むデータセット上で、徹底的にトレーニングされ、テストされる。
実験結果は、ニューラルネットワークに基づく他の手法と同様に、従来の手法と比較して分析され、比較される。
解析の結果,提案手法は現場における他の最先端手法と同等の精度を保ちながら,効率の向上を図っている。
また,新たに構築したVCNスキームが,速度勾配と速度勾配の物理的に関係のある統計を再現していることを確認する。
関連論文リスト
- Learning Pore-scale Multi-phase Flow from Experimental Data with Graph Neural Network [2.2101344151283944]
現在の数値モデルは、しばしば実験で観測された複雑な細孔スケールの物理学を正確に捉えることができない。
我々は,マイクロCT実験データを用いて,グラフニューラルネットワークを用いた多孔質流体の流れを直接学習する手法を提案する。
論文 参考訳(メタデータ) (2024-11-21T15:01:17Z) - Inpainting Computational Fluid Dynamics with Deep Learning [8.397730500554047]
有効な流体データ補完法は、流体力学実験において必要なセンサー数を削減する。
流体データ完備化問題の誤った性質は、理論解を得るのを違法に困難にしている。
ベクトル量子化法を用いて、完全および不完全流体データ空間を離散値下次元表現にマッピングする。
論文 参考訳(メタデータ) (2024-02-27T03:44:55Z) - Monte Carlo Neural PDE Solver for Learning PDEs via Probabilistic Representation [59.45669299295436]
教師なしニューラルソルバのトレーニングのためのモンテカルロPDEソルバを提案する。
我々は、マクロ現象をランダム粒子のアンサンブルとみなすPDEの確率的表現を用いる。
対流拡散, アレン・カーン, ナヴィエ・ストークス方程式に関する実験により, 精度と効率が著しく向上した。
論文 参考訳(メタデータ) (2023-02-10T08:05:19Z) - Forecasting subcritical cylinder wakes with Fourier Neural Operators [58.68996255635669]
実験によって測定された速度場の時間的変化を予測するために,最先端の演算子学習手法を適用した。
その結果、FNOはレイノルズ数の範囲で実験速度場の進化を正確に予測できることがわかった。
論文 参考訳(メタデータ) (2023-01-19T20:04:36Z) - Convolutional generative adversarial imputation networks for
spatio-temporal missing data in storm surge simulations [86.5302150777089]
GAN(Generative Adversarial Imputation Nets)とGANベースの技術は、教師なし機械学習手法として注目されている。
提案手法を Con Conval Generative Adversarial Imputation Nets (Conv-GAIN) と呼ぶ。
論文 参考訳(メタデータ) (2021-11-03T03:50:48Z) - A robust single-pixel particle image velocimetry based on fully
convolutional networks with cross-correlation embedded [3.3579727024861064]
深層学習法と従来の相互相関法を相乗的に組み合わせた新しい速度場推定パラダイムを提案する。
深層学習法は、粗い速度推定を最適化し、補正し、超解法計算を実現する。
参考として、粗い速度推定は提案アルゴリズムの堅牢性を向上させるのに役立つ。
論文 参考訳(メタデータ) (2021-10-31T03:26:08Z) - Estimating permeability of 3D micro-CT images by physics-informed CNNs
based on DNS [1.6274397329511197]
本稿では,地質岩のマイクロCTによる透水率予測手法を提案する。
透過性予測専用のCNNのためのトレーニングデータセットは、古典格子ボルツマン法(LBM)によって通常生成される透過性ラベルからなる。
その代わりに、定常ストークス方程式を効率的かつ分散並列に解き、直接数値シミュレーション(DNS)を行う。
論文 参考訳(メタデータ) (2021-09-04T08:43:19Z) - Dense Optical Flow from Event Cameras [55.79329250951028]
本稿では,イベントカメラからの高密度光フロー推定に特徴相関と逐次処理を導入することを提案する。
提案手法は、高密度光流を計算し、MVSEC上での終点誤差を23%削減する。
論文 参考訳(メタデータ) (2021-08-24T07:39:08Z) - Simultaneous boundary shape estimation and velocity field de-noising in
Magnetic Resonance Velocimetry using Physics-informed Neural Networks [70.7321040534471]
MRV(MR resonance velocimetry)は、流体の速度場を測定するために医療や工学で広く用いられている非侵襲的な技術である。
これまでの研究では、境界(例えば血管)の形状が先駆体として知られていた。
我々は、ノイズの多いMRVデータのみを用いて、最も可能性の高い境界形状と減音速度場を推定する物理インフォームニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-07-16T12:56:09Z) - PCA Event-Based Otical Flow for Visual Odometry [0.0]
本稿では,イベントベース光流量推定問題に対する主成分分析手法を提案する。
提案手法の最良の変種は,ビジュアルオドメトリーのリアルタイムコンテキストを対象とし,最先端実装と比較して約2倍高速であることを示す。
論文 参考訳(メタデータ) (2021-05-08T18:30:44Z) - Learning Optical Flow from a Few Matches [67.83633948984954]
密な相関体積表現は冗長であり、その中の要素のほんの一部で正確なフロー推定が達成できることを示した。
実験により,高い精度を維持しつつ計算コストとメモリ使用量を大幅に削減できることを示した。
論文 参考訳(メタデータ) (2021-04-05T21:44:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。