論文の概要: BF-GAN: Development of an AI-driven Bubbly Flow Image Generation Model Using Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2502.06863v1
- Date: Sat, 08 Feb 2025 02:01:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-12 14:09:55.900613
- Title: BF-GAN: Development of an AI-driven Bubbly Flow Image Generation Model Using Generative Adversarial Networks
- Title(参考訳): BF-GAN:生成対向ネットワークを用いたAI駆動気泡流画像生成モデルの開発
- Authors: Wen Zhou, Shuichiro Miwa, Yang Liu, Koji Okamoto,
- Abstract要約: 気泡流生成対向ネットワーク(BF-GAN)と呼ばれる生成AIアーキテクチャを開発した。
物理的条件付き入力、jg、jfにより、現実的で高品質な気泡流画像を生成するように設計されている。
BF-GANは、2相フロー研究のための生成AIソリューションを提供し、高品質なデータを得るのに必要な時間とコストを大幅に削減する。
- 参考スコア(独自算出の注目度): 5.824462446896972
- License:
- Abstract: A generative AI architecture called bubbly flow generative adversarial networks (BF-GAN) is developed, designed to generate realistic and high-quality bubbly flow images through physically conditioned inputs, jg and jf. Initially, 52 sets of bubbly flow experiments under varying conditions are conducted to collect 140,000 bubbly flow images with physical labels of jg and jf for training data. A multi-scale loss function is then developed, incorporating mismatch loss and pixel loss to enhance the generative performance of BF-GAN further. Regarding evaluative metrics of generative AI, the BF-GAN has surpassed conventional GAN. Physically, key parameters of bubbly flow generated by BF-GAN are extracted and compared with measurement values and empirical correlations, validating BF-GAN's generative performance. The comparative analysis demonstrate that the BF-GAN can generate realistic and high-quality bubbly flow images with any given jg and jf within the research scope. BF-GAN offers a generative AI solution for two-phase flow research, substantially lowering the time and cost required to obtain high-quality data. In addition, it can function as a benchmark dataset generator for bubbly flow detection and segmentation algorithms, enhancing overall productivity in this research domain. The BF-GAN model is available online (https://github.com/zhouzhouwen/BF-GAN).
- Abstract(参考訳): 物理的条件付き入力,jg,jfを用いて,現実的で高品質な気泡流画像を生成するために,BF-GAN(bubbly Flow Generative Adversarial Network)と呼ばれる生成AIアーキテクチャを開発した。
当初, 異なる条件下で52組の気泡流実験を行い, トレーニングデータとしてjg, jfの物理ラベルを用いた140,000個の気泡流画像を収集した。
次に、BF-GANの生成性能を高めるために、ミスマッチ損失と画素損失を組み込んだマルチスケールロス関数を開発する。
生成AIの評価指標としては、BF-GANが従来のGANを上回っている。
物理的に,BF-GANが生成する気泡流の鍵パラメータを抽出し,測定値と経験的相関値と比較し,BF-GANの生成性能を検証した。
比較分析により、BF-GANは、研究範囲内の任意のjgとjfで、現実的で高品質な気泡流画像を生成することができることが示された。
BF-GANは、2相フロー研究のための生成AIソリューションを提供し、高品質なデータを得るのに必要な時間とコストを大幅に削減する。
さらに、バビリーフロー検出とセグメンテーションアルゴリズムのためのベンチマークデータセットジェネレータとして機能し、この研究領域の全体的な生産性を高めることができる。
BF-GANモデルはオンラインで利用可能である(https://github.com/shushuwen/BF-GAN)。
関連論文リスト
- Boundary-aware Decoupled Flow Networks for Realistic Extreme Rescaling [49.215957313126324]
Invertible rescaling Network (IRN) やgenerative adversarial Network (GAN) などを含む最近の生成手法は、画像再スケーリングにおいて例外的な性能を示した。
しかし、IRNベースの手法は過度に滑らかな結果を生成する傾向にあり、一方、GANベースの手法は偽の細部を容易に生成する。
本稿では,現実的かつ視覚的に満足な結果を生成するために,境界対応デカップリングフローネットワーク(BDFlow)を提案する。
論文 参考訳(メタデータ) (2024-05-05T14:05:33Z) - Bellman Optimal Stepsize Straightening of Flow-Matching Models [14.920260435839992]
本稿では,フローマッチング生成モデルを蒸留するためのBellman Optimal Stepsize Straightening (BOSS)技術を紹介する。
BOSSは特に、計算予算の制約に固執しながら、数ステップの効率的な画像サンプリングを目的としている。
以上の結果から,BOSSは競争力のあるサンプル品質を維持しつつ,効率の大幅な向上を実現していることが明らかとなった。
論文 参考訳(メタデータ) (2023-12-27T05:20:20Z) - Guided Flows for Generative Modeling and Decision Making [55.42634941614435]
その結果,ガイドフローは条件付き画像生成やゼロショット音声合成におけるサンプル品質を著しく向上させることがわかった。
特に、我々は、拡散モデルと比較して、オフライン強化学習設定axスピードアップにおいて、まず、計画生成にフローモデルを適用する。
論文 参考訳(メタデータ) (2023-11-22T15:07:59Z) - GAFlow: Incorporating Gaussian Attention into Optical Flow [62.646389181507764]
我々はガウス的注意(GA)を光学フローモデルに押し込み、表現学習中に局所特性をアクセントする。
本稿では,既存の Transformer ブロックに簡単に接続可能な新しい Gaussian-Constrained Layer (GCL) を提案する。
動作解析のための新しいガウス誘導注意モジュール(GGAM)を提供する。
論文 参考訳(メタデータ) (2023-09-28T07:46:01Z) - Flow Matching in Latent Space [2.9330609943398525]
フローマッチングは、印象的な経験的パフォーマンスを示す生成モデルをトレーニングするフレームワークである。
本稿では,事前学習されたオートエンコーダの潜時空間にフローマッチングを適用し,計算効率を向上させることを提案する。
我々の研究は、条件生成タスクのフローマッチングへの様々な条件の統合における先駆的な貢献である。
論文 参考訳(メタデータ) (2023-07-17T17:57:56Z) - DuDGAN: Improving Class-Conditional GANs via Dual-Diffusion [2.458437232470188]
GAN(Generative Adversarial Network)を用いたクラス条件画像生成について,様々な手法を用いて検討した。
本稿では,DuDGANと呼ばれる2次元拡散型ノイズ注入法を取り入れたGANを用いたクラス条件画像生成手法を提案する。
提案手法は,画像生成のための現状条件付きGANモデルよりも性能的に優れている。
論文 参考訳(メタデータ) (2023-05-24T07:59:44Z) - Improving Model Compatibility of Generative Adversarial Networks by
Boundary Calibration [24.28407308818025]
境界キャリブレーションGAN(BCGAN)は、GANのモデル互換性を改善するために提案される。
BCGANはオリジナルのGANのようなリアルなイメージを生成するが、オリジナルのGANよりも優れたモデル互換性を実現する。
論文 参考訳(メタデータ) (2021-11-03T16:08:09Z) - Controllable and Compositional Generation with Latent-Space Energy-Based
Models [60.87740144816278]
制御可能な生成は、現実世界のアプリケーションで深層生成モデルの採用を成功させる上で重要な要件の1つである。
本研究では, エネルギーモデル(EBM)を用いて, 属性の集合上での合成生成を扱う。
エネルギー関数を論理演算子と合成することにより、分解能1024x1024のフォトリアリスティック画像を生成する際に、このような構成性を実現するのはこれが初めてである。
論文 参考訳(メタデータ) (2021-10-21T03:31:45Z) - Learning Efficient GANs for Image Translation via Differentiable Masks
and co-Attention Distillation [130.30465659190773]
Generative Adversarial Networks (GAN) は画像翻訳において広く利用されているが、その高い計算とストレージコストがモバイルデバイスへの展開を妨げる。
DMADと呼ばれる新しいGAN圧縮手法を提案する。
実験の結果、DMADはCycleGANのMultiply Accumulate Operations (MAC)を13倍、Pix2Pixを4倍削減し、フルモデルに匹敵する性能を維持することができた。
論文 参考訳(メタデータ) (2020-11-17T02:39:19Z) - Flow Field Reconstructions with GANs based on Radial Basis Functions [19.261773760183196]
2つの放射状基底関数に基づくGAN(RBF-GANとRBFC-GAN)が回帰と生成のために提案されている。
平均二乗誤差 (MSE) と平均二乗誤差 (MSPE) の両方を用いて, RBF-GAN と RBFC-GAN の性能は GANs/cGAN よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-08-11T11:45:57Z) - Discriminator Contrastive Divergence: Semi-Amortized Generative Modeling
by Exploring Energy of the Discriminator [85.68825725223873]
GAN(Generative Adversarial Networks)は、高次元データのモデリングにおいて大きな可能性を秘めている。
本稿では,WGANの識別器の特性を活かした識別器コントラストの多様性について紹介する。
我々は、合成データと実世界の画像生成ベンチマークの両方において、大幅に改善された生成の利点を実証する。
論文 参考訳(メタデータ) (2020-04-05T01:50:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。