論文の概要: VAE-DNN: Energy-Efficient Trainable-by-Parts Surrogate Model For Parametric Partial Differential Equations
- arxiv url: http://arxiv.org/abs/2508.03839v1
- Date: Tue, 05 Aug 2025 18:37:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-07 20:09:22.417409
- Title: VAE-DNN: Energy-Efficient Trainable-by-Parts Surrogate Model For Parametric Partial Differential Equations
- Title(参考訳): VAE-DNN:パラメトリック部分微分方程式に対するエネルギー効率の訓練可能部分群サロゲートモデル
- Authors: Yifei Zong, Alexandre M. Tartakovsky,
- Abstract要約: 本稿では, 前方および逆パラメータ化非線形偏微分方程式を解くための, トレーニング可能な各部分サロゲートモデルを提案する。
提案手法はエンコーダを用いて高次元の入力$y(bmx)$を低次元の潜在空間である$bmmu_bmphi_y$に還元する。
完全連結ニューラルネットワークを用いて、Pの潜伏空間に$bmmu_bmphi_y$、$bmmu_bmphi_h$をマッピングする。
- 参考スコア(独自算出の注目度): 49.1574468325115
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a trainable-by-parts surrogate model for solving forward and inverse parameterized nonlinear partial differential equations. Like several other surrogate and operator learning models, the proposed approach employs an encoder to reduce the high-dimensional input $y(\bm{x})$ to a lower-dimensional latent space, $\bm\mu_{\bm\phi_y}$. Then, a fully connected neural network is used to map $\bm\mu_{\bm\phi_y}$ to the latent space, $\bm\mu_{\bm\phi_h}$, of the PDE solution $h(\bm{x},t)$. Finally, a decoder is utilized to reconstruct $h(\bm{x},t)$. The innovative aspect of our model is its ability to train its three components independently. This approach leads to a substantial decrease in both the time and energy required for training when compared to leading operator learning models such as FNO and DeepONet. The separable training is achieved by training the encoder as part of the variational autoencoder (VAE) for $y(\bm{x})$ and the decoder as part of the $h(\bm{x},t)$ VAE. We refer to this model as the VAE-DNN model. VAE-DNN is compared to the FNO and DeepONet models for obtaining forward and inverse solutions to the nonlinear diffusion equation governing groundwater flow in an unconfined aquifer. Our findings indicate that VAE-DNN not only demonstrates greater efficiency but also delivers superior accuracy in both forward and inverse solutions compared to the FNO and DeepONet models.
- Abstract(参考訳): 本稿では, 前方および逆パラメータ化非線形偏微分方程式を解くための, トレーニング可能な各部分サロゲートモデルを提案する。
他のシュロゲートおよび演算子学習モデルと同様に、提案手法はエンコーダを用いて、高次元の入力 $y(\bm{x})$ を低次元の潜在空間 $\bm\mu_{\bm\phi_y}$ に還元する。
次に、完全に接続されたニューラルネットワークを用いて、PDE解 $h(\bm{x},t)$ の潜伏空間 $\bm\mu_{\bm\phi_y}$ を $\bm\mu_{\bm\phi_h}$ にマッピングする。
最後に、デコーダを使用して$h(\bm{x},t)$を再構成する。
私たちのモデルの革新的な側面は、3つのコンポーネントを独立してトレーニングする能力です。
このアプローチは、FNOやDeepONetといった主要な演算子学習モデルと比較して、トレーニングに必要な時間とエネルギーの両方を著しく減少させる。
分離可能なトレーニングは、$y(\bm{x})$の変分オートエンコーダ(VAE)の一部としてエンコーダを、$h(\bm{x},t)$VAEの一部としてデコーダをトレーニングすることで達成される。
このモデルをVAE-DNNモデルと呼ぶ。
VAE-DNN を FNO および DeepONet モデルと比較し,地下水流動を規定する非線形拡散方程式の前方および逆解を求める。
以上の結果から,VAE-DNNはFNOモデルやDeepONetモデルと比較して,高い効率性を示すだけでなく,前方および逆解の精度も高いことが示唆された。
関連論文リスト
- Scale-Consistent Learning for Partial Differential Equations [79.48661503591943]
本稿では,PDEのスケール一貫性特性に基づくデータ拡張手法を提案する。
次に、幅広いスケールをモデル化できるスケールインフォームド・ニューラル演算子を設計する。
スケール一貫性によって、1000ドルの$Re$でトレーニングされたモデルは、250から10000までの$Re$に一般化することができる。
論文 参考訳(メタデータ) (2025-07-24T21:29:52Z) - Self-Ensembling Gaussian Splatting for Few-Shot Novel View Synthesis [55.561961365113554]
3D Gaussian Splatting (3DGS) は新規ビュー合成(NVS)において顕著な効果を示した
本稿では,Self-Ensembling Gaussian Splatting(SE-GS)を紹介する。
我々は,トレーニング中に不確実性を認識した摂動戦略を導入することで,自己理解を実現する。
LLFF, Mip-NeRF360, DTU, MVImgNetデータセットによる実験結果から, 本手法がNVSの品質を向上させることを示す。
論文 参考訳(メタデータ) (2024-10-31T18:43:48Z) - On the estimation rate of Bayesian PINN for inverse problems [10.100602879566782]
物理インフォームドニューラルネットワーク(PINN)を用いた偏微分方程式(PDE)とその逆問題の解法は、物理学と機械学習のコミュニティにおいて急速に普及しているアプローチである。
我々は,PDEの解のベイズPINN推定器の挙動を$n$独立雑音測定から検討した。
論文 参考訳(メタデータ) (2024-06-21T01:13:18Z) - DINO as a von Mises-Fisher mixture model [15.524425102344784]
DINO は von Mises-Fisher 成分の混合モデルとして解釈できることを示す。
本稿では,クラスタ割り当て確率を計算する際に,適切な正規化定数を追加するDINO-vMFを提案する。
混合モデルのさらなる柔軟性は、画像表現の改善の観点から有益であることを示す。
論文 参考訳(メタデータ) (2024-05-17T17:49:45Z) - A backward differential deep learning-based algorithm for solving high-dimensional nonlinear backward stochastic differential equations [0.6040014326756179]
本稿では,高次元非線形逆微分方程式を解くための新しい逆微分深層学習アルゴリズムを提案する。
ディープニューラルネットワーク(DNN)モデルは、入力やラベルだけでなく、対応するラベルの差分に基づいて訓練される。
論文 参考訳(メタデータ) (2024-04-12T13:05:35Z) - Generating synthetic data for neural operators [0.0]
PDEを数値的に解くのを避ける「後方」データ生成手法を提案する。
これにより、各データポイントに対してPDEを数値的に解くのではなく、微分を演算することで、トレーニングペア$(f_j, u_j)$を生成する。
実験により、この合成データに基づいてトレーニングされたモデルは、標準解法によって生成されたデータでテストすると、よく一般化されることが示された。
論文 参考訳(メタデータ) (2024-01-04T18:31:21Z) - Training Deep Surrogate Models with Large Scale Online Learning [48.7576911714538]
ディープラーニングアルゴリズムは、PDEの高速解を得るための有効な代替手段として登場した。
モデルは通常、ソルバによって生成された合成データに基づいてトレーニングされ、ディスクに格納され、トレーニングのために読み返される。
ディープサロゲートモデルのためのオープンソースのオンライントレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-28T12:02:27Z) - Variational Diffusion Auto-encoder: Latent Space Extraction from
Pre-trained Diffusion Models [0.0]
可変オートエンコーダ(VAE)は、生成された画像の品質の問題に直面し、しばしば目立った曖昧さを示す。
この問題は、条件付きデータ分布を近似する非現実的な仮定である $p(textbfx | textbfz)$ が等方ガウス的であることに由来する。
本稿では,エンコーダを最適化することにより,既存の拡散モデルから潜在空間を抽出し,限界データのログ化を最大化する方法について述べる。
論文 参考訳(メタデータ) (2023-04-24T14:44:47Z) - Training \eta-VAE by Aggregating a Learned Gaussian Posterior with a
Decoupled Decoder [0.553073476964056]
VAEトレーニングの現在の実践は、しばしば、再構成の忠実さと、潜伏空間の連続性$/$$分散の間のトレードオフをもたらす。
本稿では,2つの損失の対角的機構の直観と注意深い解析を行い,VAEを訓練するための簡易で効果的な2段階法を提案する。
本手法は, 3次元頭蓋骨再建と形状完成を目的とした医療データセットを用いて評価し, 提案手法を用いてトレーニングしたVAEの有望な生成能力を示す。
論文 参考訳(メタデータ) (2022-09-29T13:49:57Z) - Diffusion models as plug-and-play priors [98.16404662526101]
我々は、事前の$p(mathbfx)$と補助的な制約である$c(mathbfx,mathbfy)$からなるモデルにおいて、高次元データ$mathbfx$を推論する問題を考える。
拡散モデルの構造は,異なるノイズ量に富んだ定性デノナイジングネットワークを通じて,微分を反復することで近似推論を行うことができる。
論文 参考訳(メタデータ) (2022-06-17T21:11:36Z) - Fourier Neural Operator for Parametric Partial Differential Equations [57.90284928158383]
積分カーネルを直接フーリエ空間でパラメータ化することで、新しいニューラル演算子を定式化する。
バーガースの方程式、ダーシー流、ナビエ・ストークス方程式の実験を行う。
従来のPDEソルバに比べて最大3桁高速である。
論文 参考訳(メタデータ) (2020-10-18T00:34:21Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。