論文の概要: LatentPINNs: Generative physics-informed neural networks via a latent
representation learning
- arxiv url: http://arxiv.org/abs/2305.07671v1
- Date: Thu, 11 May 2023 16:54:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-16 20:27:09.589802
- Title: LatentPINNs: Generative physics-informed neural networks via a latent
representation learning
- Title(参考訳): latentpinns: 潜在表現学習による生成物理学に基づくニューラルネットワーク
- Authors: Mohammad H. Taufik and Tariq Alkhalifah
- Abstract要約: 本稿では,PDEパラメータの潜在表現をPINNに追加(座標に)入力として利用するフレームワークであるLatentPINNを紹介する。
まず,PDEパラメータの分布の潜在表現を学習する。
第2段階では、解領域内の座標空間からランダムに描画されたサンプルから得られる入力に対して、物理インフォームドニューラルネットワークを訓練する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Physics-informed neural networks (PINNs) are promising to replace
conventional partial differential equation (PDE) solvers by offering more
accurate and flexible PDE solutions. However, they are hampered by the
relatively slow convergence and the need to perform additional, potentially
expensive, training for different PDE parameters. To solve this limitation, we
introduce latentPINN, a framework that utilizes latent representations of the
PDE parameters as additional (to the coordinates) inputs into PINNs and allows
for training over the distribution of these parameters. Motivated by the recent
progress on generative models, we promote the use of latent diffusion models to
learn compressed latent representations of the PDE parameters distribution and
act as input parameters to NN functional solutions. We use a two-stage training
scheme in which the first stage, we learn the latent representations for the
distribution of PDE parameters. In the second stage, we train a
physics-informed neural network over inputs given by randomly drawn samples
from the coordinate space within the solution domain and samples from the
learned latent representation of the PDE parameters. We test the approach on a
class of level set equations given by the nonlinear Eikonal equation. We
specifically share results corresponding to three different sets of Eikonal
parameters (velocity models). The proposed method performs well on new phase
velocity models without the need for any additional training.
- Abstract(参考訳): 物理インフォームドニューラルネットワーク(PINN)は、より正確で柔軟なPDEソリューションを提供することで、従来の偏微分方程式(PDE)を置き換えることを約束している。
しかし、それらは比較的緩やかな収束と、異なるPDEパラメータに対する追加で潜在的に高価なトレーニングを実行する必要性によって妨げられている。
この制限を解決するために,pdeパラメータの潜在表現をピンへの(座標への)入力として利用し,これらのパラメータの分布をトレーニング可能にするフレームワークであるlatentpinnを紹介する。
近年の生成モデルの発展に動機づけられて,pdeパラメータ分布の圧縮潜在表現を学習し,nn関数解への入力パラメータとして機能する潜在拡散モデルの利用を促進する。
我々は,pdeパラメータの分布について,第1段階から潜在表現を学習する2段階学習方式を用いる。
第2段階では、解領域内の座標空間からランダムに描画されたサンプルと、PDEパラメータの学習潜在表現から得られたサンプルから得られる入力に対して、物理インフォームドニューラルネットワークを訓練する。
非線形アイコン方程式によって与えられるレベルセット方程式のクラスに対するアプローチをテストする。
3つの異なるアイコンパラメータ(速度モデル)の集合に対応する結果を特に共有する。
提案手法は,新たな位相速度モデルにおいて,追加のトレーニングを必要とせずにうまく機能する。
関連論文リスト
- PIG: Physics-Informed Gaussians as Adaptive Parametric Mesh Representations [5.4087282763977855]
ニューラルネットワークを用いた部分微分方程式(PDE)の近似は、大きく進歩している。
PINNは、高周波および非線形成分の学習に苦慮しているMLP(Multi-Layer Perceptrons)のスペクトルバイアスによって、限られた精度に悩まされることが多い。
本稿では,ガウス関数を用いた特徴埋め込みと軽量ニューラルネットワークを組み合わせた物理インフォームドガウス(PIG)を提案する。
論文 参考訳(メタデータ) (2024-12-08T16:58:29Z) - Advancing Generalization in PINNs through Latent-Space Representations [71.86401914779019]
物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)によって支配される力学系のモデリングにおいて大きな進歩を遂げた。
本稿では,多種多様なPDE構成を効果的に一般化する物理インフォームドニューラルPDE解法PIDOを提案する。
PIDOは1次元合成方程式と2次元ナビエ・ストークス方程式を含む様々なベンチマークで検証する。
論文 参考訳(メタデータ) (2024-11-28T13:16:20Z) - Parameterized Physics-informed Neural Networks for Parameterized PDEs [24.926311700375948]
本稿では,パラメータ化物理インフォームドニューラルネットワーク(PINN)の新たな拡張を提案する。
PINNはパラメータ化偏微分方程式(PDE)の解をPDEパラメータの潜在表現を明示的に符号化することでモデル化することができる。
P$2$INNs はベンチマーク 1D と 2D のパラメータ化 PDE において精度とパラメータ効率の両方でベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2024-08-18T11:58:22Z) - Unisolver: PDE-Conditional Transformers Are Universal PDE Solvers [55.0876373185983]
広範にPDEを解くことができるUniversal PDEソルバ(Unisolver)を提案する。
私たちの重要な発見は、PDEソリューションが基本的に一連のPDEコンポーネントの制御下にあることです。
Unisolverは3つの挑戦的な大規模ベンチマークにおいて、一貫した最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-05-27T15:34:35Z) - Deep Equilibrium Based Neural Operators for Steady-State PDEs [100.88355782126098]
定常PDEに対する重み付けニューラルネットワークアーキテクチャの利点について検討する。
定常PDEの解を直接解くFNOアーキテクチャの深い平衡変種であるFNO-DEQを提案する。
論文 参考訳(メタデータ) (2023-11-30T22:34:57Z) - Reduced-order modeling for parameterized PDEs via implicit neural
representations [4.135710717238787]
我々は、パラメータ化偏微分方程式(PDE)を効率的に解くために、新しいデータ駆動型低次モデリング手法を提案する。
提案フレームワークは、PDEを符号化し、パラメトリゼーションニューラルネットワーク(PNODE)を用いて、複数のPDEパラメータを特徴とする潜時ダイナミクスを学習する。
我々は,提案手法を大規模なレイノルズ数で評価し,O(103)の高速化と,基底真理値に対する1%の誤差を得る。
論文 参考訳(メタデータ) (2023-11-28T01:35:06Z) - A Stable and Scalable Method for Solving Initial Value PDEs with Neural
Networks [52.5899851000193]
我々は,ネットワークの条件が悪くなるのを防止し,パラメータ数で時間線形に動作するODEベースのIPPソルバを開発した。
このアプローチに基づく現在の手法は2つの重要な問題に悩まされていることを示す。
まず、ODEに従うと、問題の条件付けにおいて制御不能な成長が生じ、最終的に許容できないほど大きな数値誤差が生じる。
論文 参考訳(メタデータ) (2023-04-28T17:28:18Z) - Neural Partial Differential Equations with Functional Convolution [30.35306295442881]
本稿では、隠れた構造を発見し、異なる非線形PDEの解を予測するために、軽量なニューラルPDE表現を提案する。
我々は、数値PDE微分演算子の「翻訳類似性」の先行を利用して、学習モデルとトレーニングデータのスケールを大幅に削減する。
論文 参考訳(メタデータ) (2023-03-10T04:25:38Z) - Learning Physics-Informed Neural Networks without Stacked
Back-propagation [82.26566759276105]
我々は,物理インフォームドニューラルネットワークのトレーニングを著しく高速化する新しい手法を開発した。
特に、ガウス滑らか化モデルによりPDE解をパラメータ化し、スタインの恒等性から導かれる2階微分がバックプロパゲーションなしで効率的に計算可能であることを示す。
実験の結果,提案手法は通常のPINN訓練に比べて2桁の精度で競合誤差を実現できることがわかった。
論文 参考訳(メタデータ) (2022-02-18T18:07:54Z) - PDE-constrained Models with Neural Network Terms: Optimization and
Global Convergence [0.0]
近年の研究では、ディープラーニングを用いて、科学と工学における偏微分方程式(PDE)モデルを開発した。
ニューラルネットワークを用いた線形楕円型PDEの最適化について厳密に研究する。
ニューラルネットワークは,レイノルズ平均ナヴィエ・ストークス方程式の閉包モデルとして機能する流体力学への応用のために,ニューラルネットワークモデルを訓練する。
論文 参考訳(メタデータ) (2021-05-18T16:04:33Z) - dNNsolve: an efficient NN-based PDE solver [62.997667081978825]
ODE/PDEを解決するためにデュアルニューラルネットワークを利用するdNNsolveを紹介します。
我々は,dNNsolveが1,2,3次元の幅広いODE/PDEを解くことができることを示す。
論文 参考訳(メタデータ) (2021-03-15T19:14:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。