論文の概要: Data reconstruction of turbulent flows with Gappy POD, Extended POD and
Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2210.11921v1
- Date: Fri, 21 Oct 2022 12:44:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-30 11:54:29.436460
- Title: Data reconstruction of turbulent flows with Gappy POD, Extended POD and
Generative Adversarial Networks
- Title(参考訳): Gappy POD, Extended POD, Generative Adversarial Networks を用いた乱流データ再構成
- Authors: Tianyi Li, Michele Buzzicotti, Luca Biferale, Fabio Bonaccorso, Shiyi
Chen and Minping Wan
- Abstract要約: 回転中の乱流中の2次元瞬時速度場を復元するために3つの手法が用いられている。
全ての手法は中小のギャップに対して良好に機能する一方、GANはギャップが大きければうまく機能する。
- 参考スコア(独自算出の注目度): 5.7124615192485315
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Three methods are used to reconstruct two-dimensional instantaneous velocity
fields in a turbulent flow under rotation. The first two methods both use the
linear proper orthogonal decomposition (POD), which are Gappy POD (GPOD) and
Extended POD (EPOD), while the third one reconstructs the flow using a fully
non-linear Convolutional Neural Network embedded in a Generative Adversarial
Network (GAN). First, we show that there is always an optimal number of modes
regarding a specific gap for the GPOD with dimension reduction. Moreover,
adopting a Lasso regularizer for GPOD provides comparable reconstruction
results. In order to systematically compare the applicability of the three
tools, we consider a square gap at changing the size. Results show that
compared with POD-based methods, GAN reconstruction not only has a smaller
$L_2$ error, but also better turbulent statistics of both the velocity module
and the velocity module gradient. This can be attributed to the ability of
nonlinearity expression of the network and the presence of adversarial loss
during the GAN training. We also investigate effects of the adversarial ratio,
which controls the compromising between the $L_2$ error and the statistical
properties. Finally, we assess the reconstruction on random gappiness. All
methods perform well for small- and medium-size gaps, while GAN works better
when the gappiness is large.
- Abstract(参考訳): 回転下の乱流中の2次元瞬時速度場を再構成するために3つの方法が用いられる。
最初の2つの方法は、Gappy POD (GPOD) とExtended POD (EPOD) の2つの線形固有直交分解 (POD) を使い、3つ目の方法は、GAN (Generative Adversarial Network) に組み込まれた完全な非線形畳み込みニューラルネットワークを用いてフローを再構成する。
まず,次元減少を伴うGPODの特定のギャップに関して,常に最適なモード数が存在することを示す。
さらに、GPODにLasso正規化器を採用することで、同等の再構成結果が得られる。
3つのツールの適用性を体系的に比較するために,サイズ変更時の正方形ギャップを考える。
その結果,POD法と比較すると,GAN再構成の誤差は小さいだけでなく,速度モジュールと速度モジュール勾配の乱流統計の精度も向上した。
これは、ネットワークの非線形性表現の能力とganトレーニング中の逆損失の存在によって引き起こされる。
また,$l_2$誤差と統計特性との妥協を制御する逆比の効果についても検討した。
最後に,ランダムギャップの再構成を評価する。
全ての手法は小・中規模のギャップに対して良好に機能する一方、ギャップが大きくなるとGANはより良く機能する。
関連論文リスト
- Localized Gaussians as Self-Attention Weights for Point Clouds Correspondence [92.07601770031236]
本稿では,エンコーダのみのトランスフォーマーアーキテクチャのアテンションヘッドにおける意味的意味パターンについて検討する。
注意重みの修正はトレーニングプロセスの促進だけでなく,最適化の安定性の向上にも寄与する。
論文 参考訳(メタデータ) (2024-09-20T07:41:47Z) - MCGAN: Enhancing GAN Training with Regression-Based Generator Loss [5.7645234295847345]
高忠実度データを生成する強力なツールとして,GAN(Adversarial Network)が登場している。
我々はモンテカルロガン(MCGAN)と呼ばれるアルゴリズムを提案する。
このアプローチは、革新的生成損失関数、すなわち回帰損失を利用して、回帰タスクとしてジェネレータトレーニングを再構成する。
本手法は, 有効発電機訓練のために, 判別器に弱い条件を必要とすることを示す。
論文 参考訳(メタデータ) (2024-05-27T14:15:52Z) - Uncertainty-Aware Deep Attention Recurrent Neural Network for
Heterogeneous Time Series Imputation [0.25112747242081457]
欠落は多変量時系列においてユビキタスであり、信頼できる下流分析の障害となる。
本稿では、欠落した値とその関連不確かさを共同で推定するDeep Attention Recurrent Imputation (Imputation)を提案する。
実験の結果,実世界のデータセットを用いた多様な計算タスクにおいて,SOTAを上回っていることがわかった。
論文 参考訳(メタデータ) (2024-01-04T13:21:11Z) - Generative Adversarial Networks to infer velocity components in rotating
turbulent flows [2.0873604996221946]
CNNとGANは、ポイントワイドと統計的再構成の両方でEPODを常に上回ります。
解析は、予測と地上真実の間の空間距離$L$の標準検証ツールの両方を用いて行われる。
論文 参考訳(メタデータ) (2023-01-18T13:59:01Z) - BCD Nets: Scalable Variational Approaches for Bayesian Causal Discovery [97.79015388276483]
構造方程式モデル(SEM)は、有向非巡回グラフ(DAG)を介して表される因果関係を推論する効果的な枠組みである。
近年の進歩により、観測データからDAGの有効最大点推定が可能となった。
線形ガウス SEM を特徴付ける DAG 上の分布を推定するための変分フレームワークである BCD Nets を提案する。
論文 参考訳(メタデータ) (2021-12-06T03:35:21Z) - Convolutional generative adversarial imputation networks for
spatio-temporal missing data in storm surge simulations [86.5302150777089]
GAN(Generative Adversarial Imputation Nets)とGANベースの技術は、教師なし機械学習手法として注目されている。
提案手法を Con Conval Generative Adversarial Imputation Nets (Conv-GAIN) と呼ぶ。
論文 参考訳(メタデータ) (2021-11-03T03:50:48Z) - Disentangling Generative Factors of Physical Fields Using Variational
Autoencoders [0.0]
本研究は,非線形次元低減のための変分オートエンコーダ (VAE) の利用について検討する。
不整合分解は解釈可能であり、生成的モデリングを含む様々なタスクに転送することができる。
論文 参考訳(メタデータ) (2021-09-15T16:02:43Z) - Learning Neural Causal Models with Active Interventions [83.44636110899742]
本稿では,データ生成プロセスの根底にある因果構造を素早く識別する能動的介入ターゲット機構を提案する。
本手法は,ランダムな介入ターゲティングと比較して,要求される対話回数を大幅に削減する。
シミュレーションデータから実世界のデータまで,複数のベンチマークにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2021-09-06T13:10:37Z) - TadGAN: Time Series Anomaly Detection Using Generative Adversarial
Networks [73.01104041298031]
TadGANは、GAN(Generative Adversarial Networks)上に構築された教師なしの異常検出手法である。
時系列の時間相関を捉えるために,ジェネレータと批評家のベースモデルとしてLSTMリカレントニューラルネットワークを用いる。
提案手法の性能と一般化性を示すため,いくつかの異常スコアリング手法を検証し,最も適した手法を報告する。
論文 参考訳(メタデータ) (2020-09-16T15:52:04Z) - Multiplicative noise and heavy tails in stochastic optimization [62.993432503309485]
経験的最適化は現代の機械学習の中心であるが、その成功における役割はまだ不明である。
分散による離散乗法雑音のパラメータによく現れることを示す。
最新のステップサイズやデータを含む重要な要素について、詳細な分析を行い、いずれも最先端のニューラルネットワークモデルで同様の結果を示す。
論文 参考訳(メタデータ) (2020-06-11T09:58:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。