論文の概要: PiRD: Physics-informed Residual Diffusion for Flow Field Reconstruction
- arxiv url: http://arxiv.org/abs/2404.08412v2
- Date: Thu, 9 May 2024 15:30:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-10 17:29:35.210089
- Title: PiRD: Physics-informed Residual Diffusion for Flow Field Reconstruction
- Title(参考訳): 物理インフォームド残差拡散法による流れ場再構成
- Authors: Siming Shan, Pengkai Wang, Song Chen, Jiaxu Liu, Chao Xu, Shengze Cai,
- Abstract要約: データ忠実度向上のためのCNNベースの手法は、トレーニング期間中の低忠実度データパターンと分布に依存している。
提案したモデルである物理インフォームド残差拡散(Residual Diffusion)は、標準の低忠実度入力からデータの品質を高める能力を示す。
実験結果から, 2次元乱流に対して, 再学習を必要とせず, 高品質な流れを効果的に再現できることが示唆された。
- 参考スコア(独自算出の注目度): 5.06136344261226
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The use of machine learning in fluid dynamics is becoming more common to expedite the computation when solving forward and inverse problems of partial differential equations. Yet, a notable challenge with existing convolutional neural network (CNN)-based methods for data fidelity enhancement is their reliance on specific low-fidelity data patterns and distributions during the training phase. In addition, the CNN-based method essentially treats the flow reconstruction task as a computer vision task that prioritizes the element-wise precision which lacks a physical and mathematical explanation. This dependence can dramatically affect the models' effectiveness in real-world scenarios, especially when the low-fidelity input deviates from the training data or contains noise not accounted for during training. The introduction of diffusion models in this context shows promise for improving performance and generalizability. Unlike direct mapping from a specific low-fidelity to a high-fidelity distribution, diffusion models learn to transition from any low-fidelity distribution towards a high-fidelity one. Our proposed model - Physics-informed Residual Diffusion, demonstrates the capability to elevate the quality of data from both standard low-fidelity inputs, to low-fidelity inputs with injected Gaussian noise, and randomly collected samples. By integrating physics-based insights into the objective function, it further refines the accuracy and the fidelity of the inferred high-quality data. Experimental results have shown that our approach can effectively reconstruct high-quality outcomes for two-dimensional turbulent flows from a range of low-fidelity input conditions without requiring retraining.
- Abstract(参考訳): 流体力学における機械学習の利用は、偏微分方程式の前方および逆問題を解く際に計算を高速化することが一般的になりつつある。
しかし、既存の畳み込みニューラルネットワーク(CNN)ベースのデータ忠実度向上手法における注目すべき課題は、トレーニングフェーズ中の特定の低忠実度データパターンと分散に依存することである。
さらに、CNNベースの手法では、フロー再構成タスクを、物理的・数学的説明に欠ける要素の精度を優先するコンピュータビジョンタスクとして扱う。
この依存は、特に低忠実度入力がトレーニングデータから逸脱したり、トレーニング中に説明されていないノイズを含む場合、実際のシナリオにおけるモデルの有効性に劇的に影響する可能性がある。
この文脈における拡散モデルの導入は、性能と一般化可能性を改善することを約束している。
特定の低忠実度から高忠実度分布への直接写像とは異なり、拡散モデルは任意の低忠実度分布から高忠実度分布への遷移を学ぶ。
提案したモデル - 物理インフォームド残差拡散(Residual Diffusion)は、標準の低忠実度入力から、ガウス雑音を注入した低忠実度入力、ランダムに収集したサンプルまで、データの質を高める能力を示す。
物理に基づく洞察を目的関数に統合することにより、推論された高品質なデータの精度と忠実度をさらに改善する。
実験結果より, 本手法は, 低忠実度入力条件の2次元乱流に対して, 再学習を必要とせず, 効果的に高品質な流れを再現できることが示唆された。
関連論文リスト
- Generating Synthetic Net Load Data with Physics-informed Diffusion Model [0.8848340429852071]
条件付き認知ニューラルネットワークは、拡散モデルの遷移核のパラメータを共同で訓練するように設計されている。
総合的な評価指標を用いて、生成された合成ネット負荷データの正確性と多様性を評価する。
論文 参考訳(メタデータ) (2024-06-04T02:50:19Z) - DetDiffusion: Synergizing Generative and Perceptive Models for Enhanced Data Generation and Perception [78.26734070960886]
現在の知覚モデルは、リソース集約的なデータセットに大きく依存している。
セグメンテーションを通じて知覚認識損失(P.A.損失)を導入し、品質と制御性の両方を改善した。
本手法は,世代間における知覚認識属性(P.A. Attr)の抽出と利用により,データ拡張をカスタマイズする。
論文 参考訳(メタデータ) (2024-03-20T04:58:03Z) - Over-the-Air Federated Learning and Optimization [52.5188988624998]
エッジ・ザ・エア計算(AirComp)によるフェデレーション学習(FL)に焦点を当てる。
本稿では,AirComp ベースの FedAvg (AirFedAvg) アルゴリズムの凸および非凸条件下での収束について述べる。
エッジデバイス(モデル、勾配、モデル差など)で送信できるローカルアップデートの種類によって、AirFedAvgで送信するとアグリゲーションエラーが発生する可能性がある。
さらに、より実用的な信号処理方式を検討し、通信効率を改善し、これらの信号処理方式によって引き起こされるモデル集約誤差の異なる形式に収束解析を拡張する。
論文 参考訳(メタデータ) (2023-10-16T05:49:28Z) - The Surprising Effectiveness of Diffusion Models for Optical Flow and
Monocular Depth Estimation [42.48819460873482]
拡散確率モデルは、その印象的な忠実さと多様性で画像生成を変換した。
また,タスク固有のアーキテクチャや損失関数を使わずに,光学的フローと単眼深度の推定に優れることを示す。
論文 参考訳(メタデータ) (2023-06-02T21:26:20Z) - Disentangled Multi-Fidelity Deep Bayesian Active Learning [19.031567953748453]
マルチ忠実能動学習は、入力パラメータからシミュレーション出力への直接マッピングを最も高い忠実度で学習することを目的としている。
深層学習に基づく手法は、しばしば隠れ表現に階層構造を課し、低忠実度から高忠実度への情報伝達のみをサポートする。
本稿では,D-MFDAL(Disentangled Multi-fidelity Deep Bayesian Active Learning)と呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-07T23:14:58Z) - Multi-fidelity prediction of fluid flow and temperature field based on
transfer learning using Fourier Neural Operator [10.104417481736833]
本研究では,フーリエニューラル演算子に基づく新しい多要素学習手法を提案する。
トランスファーラーニングパラダイムの下では、豊富な低忠実度データと限られた高忠実度データを使用する。
提案した多忠実度モデルの精度を検証するために,3つの典型的な流体および温度予測問題を選択する。
論文 参考訳(メタデータ) (2023-04-14T07:46:03Z) - Reflected Diffusion Models [93.26107023470979]
本稿では,データのサポートに基づいて進化する反射微分方程式を逆転する反射拡散モデルを提案する。
提案手法は,一般化されたスコアマッチング損失を用いてスコア関数を学習し,標準拡散モデルの主要成分を拡張する。
論文 参考訳(メタデータ) (2023-04-10T17:54:38Z) - A Physics-informed Diffusion Model for High-fidelity Flow Field
Reconstruction [0.0]
本研究では,高忠実度データのみを使用する拡散モデルを提案する。
異なる構成で、本モデルでは、正規の低忠実度サンプルまたはスパース測定サンプルから高忠実度データを再構成することができる。
本モデルでは, 異なる入力源に基づく2次元乱流の正確な再構成結果が得られるが, 再学習は行わない。
論文 参考訳(メタデータ) (2022-11-26T23:14:18Z) - Multi-fidelity Hierarchical Neural Processes [79.0284780825048]
多要素代理モデリングは、異なるシミュレーション出力を融合させることで計算コストを削減する。
本稿では,多階層型階層型ニューラルネットワーク(MF-HNP)を提案する。
疫学および気候モデリングタスクにおけるMF-HNPの評価を行い、精度と不確実性評価の観点から競合性能を達成した。
論文 参考訳(メタデータ) (2022-06-10T04:54:13Z) - Influence Estimation and Maximization via Neural Mean-Field Dynamics [60.91291234832546]
本稿では,ニューラル平均場(NMF)ダイナミクスを用いた新しい学習フレームワークを提案する。
我々のフレームワークは拡散ネットワークの構造とノード感染確率の進化を同時に学習することができる。
論文 参考訳(メタデータ) (2021-06-03T00:02:05Z) - Focus of Attention Improves Information Transfer in Visual Features [80.22965663534556]
本稿では,真のオンライン環境下での視覚情報伝達のための教師なし学習に焦点を当てた。
エントロピー項の計算は、エントロピー項のオンライン推定を行う時間的プロセスによって行われる。
入力確率分布をよりよく構成するために,人間のような注目モデルを用いる。
論文 参考訳(メタデータ) (2020-06-16T15:07:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。