論文の概要: Flow Field Reconstructions with GANs based on Radial Basis Functions
- arxiv url: http://arxiv.org/abs/2009.02285v1
- Date: Tue, 11 Aug 2020 11:45:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 12:39:12.423568
- Title: Flow Field Reconstructions with GANs based on Radial Basis Functions
- Title(参考訳): 放射基底関数に基づくGANを用いた流れ場再構成
- Authors: Liwei Hu, Wenyong Wang, Yu Xiang, Jun Zhang
- Abstract要約: 2つの放射状基底関数に基づくGAN(RBF-GANとRBFC-GAN)が回帰と生成のために提案されている。
平均二乗誤差 (MSE) と平均二乗誤差 (MSPE) の両方を用いて, RBF-GAN と RBFC-GAN の性能は GANs/cGAN よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 19.261773760183196
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nonlinear sparse data regression and generation have been a long-term
challenge, to cite the flow field reconstruction as a typical example. The huge
computational cost of computational fluid dynamics (CFD) makes it much
expensive for large scale CFD data producing, which is the reason why we need
some cheaper ways to do this, of which the traditional reduced order models
(ROMs) were promising but they couldn't generate a large number of full domain
flow field data (FFD) to realize high-precision flow field reconstructions.
Motivated by the problems of existing approaches and inspired by the success of
the generative adversarial networks (GANs) in the field of computer vision, we
prove an optimal discriminator theorem that the optimal discriminator of a GAN
is a radial basis function neural network (RBFNN) while dealing with nonlinear
sparse FFD regression and generation. Based on this theorem, two radial basis
function-based GANs (RBF-GAN and RBFC-GAN), for regression and generation
purposes, are proposed. Three different datasets are applied to verify the
feasibility of our models. The results show that the performance of the RBF-GAN
and the RBFC-GAN are better than that of GANs/cGANs by means of both the mean
square error (MSE) and the mean square percentage error (MSPE). Besides,
compared with GANs/cGANs, the stability of the RBF-GAN and the RBFC-GAN improve
by 34.62% and 72.31%, respectively. Consequently, our proposed models can be
used to generate full domain FFD from limited and sparse datasets, to meet the
requirement of high-precision flow field reconstructions.
- Abstract(参考訳): 非線形スパースデータレグレッションと生成は、フローフィールドの再構成を典型的な例として引用する長期的な課題である。
計算流体力学(CFD)の膨大な計算コストは、大規模CFDデータ生成に非常にコストをかかるため、従来のリダクションオーダーモデル(ROM)が期待していたような、より安価な方法が必要であり、高速なフローフィールド再構成を実現するために、大量のフルドメインフローフィールドデータ(FFD)を生成することができなかった理由である。
コンピュータビジョンの分野でのGAN(Generative Adversarial Network)の成功に触発されて,GANの最適判別器は非線形スパースFFD回帰と生成を処理しながら,放射基底関数ニューラルネットワーク(RBFNN)である,という最適な判別器定理を証明した。
この定理に基づき、回帰および生成目的のための2つの放射基底関数ベースGAN(RBF-GANとRBFC-GAN)を提案する。
モデルの有効性を検証するために、3つの異なるデータセットが適用される。
その結果,平均二乗誤差(MSE)と平均二乗誤差(MSPE)の両方を用いて,RBF-GANとRBFC-GANの性能はGANs/cGANよりも優れていた。
さらに、GANやcGANと比較して、RBF-GANとRBFC-GANの安定性はそれぞれ34.62%、72.31%向上した。
その結果,提案手法は,高精度な流れ場再構成の要求を満たすために,限定的かつスパースなデータセットから完全な領域FFDを生成するために利用できる。
関連論文リスト
- Diffusion Models as Network Optimizers: Explorations and Analysis [71.69869025878856]
生成拡散モデル(GDM)は,ネットワーク最適化の新しいアプローチとして期待されている。
本研究ではまず,生成モデルの本質的な特徴について考察する。
本稿では,識別的ネットワーク最適化よりも生成モデルの利点を簡潔かつ直感的に示す。
論文 参考訳(メタデータ) (2024-11-01T09:05:47Z) - Steering Masked Discrete Diffusion Models via Discrete Denoising Posterior Prediction [88.65168366064061]
本稿では,確率論的推論の課題として,事前学習したMDMを操る作業を行う新しいフレームワークであるDDPPを紹介する。
私たちのフレームワークは、3つの新しい目標のファミリーにつながります。
Wet-lab Validation(ウェット・ラブ・バリデーション)を用いて,報酬最適化タンパク質配列の過渡的発現を観察する。
論文 参考訳(メタデータ) (2024-10-10T17:18:30Z) - DiffSG: A Generative Solver for Network Optimization with Diffusion Model [75.27274046562806]
拡散生成モデルはより広い範囲の解を考えることができ、学習パラメータによるより強力な一般化を示す。
拡散生成モデルの本質的な分布学習を利用して高品質な解を学習する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-13T07:56:21Z) - DifAugGAN: A Practical Diffusion-style Data Augmentation for GAN-based
Single Image Super-resolution [88.13972071356422]
本稿では,DifAugGAN として知られる GAN ベースの画像超解像法(SR) のための拡散型データ拡張手法を提案する。
それは、訓練中の判別器の校正を改善するために、生成拡散モデルに拡散過程を適用することを含む。
我々のDifAugGANは、現在のGANベースのSISR手法のプラグ・アンド・プレイ戦略であり、判別器の校正を改善し、SR性能を向上させることができる。
論文 参考訳(メタデータ) (2023-11-30T12:37:53Z) - FFEINR: Flow Feature-Enhanced Implicit Neural Representation for
Spatio-temporal Super-Resolution [4.577685231084759]
本稿では,フローフィールドデータの超高分解能化のための特徴強調型ニューラルインシシット表現(FFEINR)を提案する。
モデル構造とサンプリング分解能の観点から、暗黙のニューラル表現を最大限に活用することができる。
FFEINRのトレーニングプロセスは、入力層に機能拡張を導入することで容易になる。
論文 参考訳(メタデータ) (2023-08-24T02:28:18Z) - Hierarchical Integration Diffusion Model for Realistic Image Deblurring [71.76410266003917]
拡散モデル (DM) は画像劣化に導入され, 有望な性能を示した。
本稿では,階層型統合拡散モデル(HI-Diff)を提案する。
人工的および実世界のぼかしデータセットの実験は、HI-Diffが最先端の手法より優れていることを示した。
論文 参考訳(メタデータ) (2023-05-22T12:18:20Z) - Improving Model Compatibility of Generative Adversarial Networks by
Boundary Calibration [24.28407308818025]
境界キャリブレーションGAN(BCGAN)は、GANのモデル互換性を改善するために提案される。
BCGANはオリジナルのGANのようなリアルなイメージを生成するが、オリジナルのGANよりも優れたモデル互換性を実現する。
論文 参考訳(メタデータ) (2021-11-03T16:08:09Z) - Fuzzy Generative Adversarial Networks [0.0]
Generative Adversarial Networks (GAN) は、データ生成と半教師付き分類のためのよく知られたツールである。
本稿では,平均絶対誤差(MAE)と平均二乗誤差(MSE)によるGANの回帰能力の向上を示す手法を提案する。
ファジィ論理層を追加することで、GANの回帰処理能力が向上し、最も望ましい注入位置は問題固有であることが示される。
論文 参考訳(メタデータ) (2021-10-27T17:05:06Z) - Local approximate Gaussian process regression for data-driven
constitutive laws: Development and comparison with neural networks [0.0]
局所近似過程回帰を用いて特定のひずみ空間における応力出力を予測する方法を示す。
FE設定におけるグローバル構造問題を解決する場合のlaGPR近似の局所的性質に適応するために、修正されたニュートン・ラフソン手法が提案される。
論文 参考訳(メタデータ) (2021-05-07T14:49:28Z) - On Data Augmentation for GAN Training [39.074761323958406]
本稿では,GANトレーニングにおける拡張データの利用を可能にするために,DAG(Data Augmentation Optimized for GAN)を提案する。
我々は異なるGANモデルにDAGを適用する実験を行う。
いくつかのGANモデルでDAGを使用する場合、システムは最先端のFrechet Inception Distance(FID)スコアを確立する。
論文 参考訳(メタデータ) (2020-06-09T15:19:26Z) - GANs with Conditional Independence Graphs: On Subadditivity of
Probability Divergences [70.30467057209405]
GAN(Generative Adversarial Networks)は、データセットの基盤となる分布を学習するための現代的な手法である。
GANは、基礎となるディストリビューションに関する追加情報がないモデルフリーで設計されている。
本稿では,ベイズネット/MRFの近傍に単純な識別器群を用いたモデルベースGANの設計を提案する。
論文 参考訳(メタデータ) (2020-03-02T04:31:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。