論文の概要: Physics-Informed Latent Neural Operator for Real-time Predictions of Complex Physical Systems
- arxiv url: http://arxiv.org/abs/2501.08428v1
- Date: Tue, 14 Jan 2025 20:38:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-16 15:52:07.938008
- Title: Physics-Informed Latent Neural Operator for Real-time Predictions of Complex Physical Systems
- Title(参考訳): 複雑系の実時間予測のための物理インフォームド潜時ニューラル演算子
- Authors: Sharmila Karumuri, Lori Graham-Brady, Somdatta Goswami,
- Abstract要約: ディープオペレータネットワーク(DeepONet)は、偏微分方程式(PDE)によって支配される系の代理モデルとして大きな可能性を示している。
この研究は、制限を克服する物理インフォームされた潜在演算子学習フレームワークPI-Latent-NOを導入している。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Deep operator network (DeepONet) has shown great promise as a surrogate model for systems governed by partial differential equations (PDEs), learning mappings between infinite-dimensional function spaces with high accuracy. However, achieving low generalization errors often requires highly overparameterized networks, posing significant challenges for large-scale, complex systems. To address these challenges, latent DeepONet was proposed, introducing a two-step approach: first, a reduced-order model is used to learn a low-dimensional latent space, followed by operator learning on this latent space. While effective, this method is inherently data-driven, relying on large datasets and making it difficult to incorporate governing physics into the framework. Additionally, the decoupled nature of these steps prevents end-to-end optimization and the ability to handle data scarcity. This work introduces PI-Latent-NO, a physics-informed latent operator learning framework that overcomes these limitations. Our architecture employs two coupled DeepONets in an end-to-end training scheme: the first, termed Latent-DeepONet, identifies and learns the low-dimensional latent space, while the second, Reconstruction-DeepONet, maps the latent representations back to the original physical space. By integrating governing physics directly into the training process, our approach requires significantly fewer data samples while achieving high accuracy. Furthermore, the framework is computationally and memory efficient, exhibiting nearly constant scaling behavior on a single GPU and demonstrating the potential for further efficiency gains with distributed training. We validate the proposed method on high-dimensional parametric PDEs, demonstrating its effectiveness as a proof of concept and its potential scalability for large-scale systems.
- Abstract(参考訳): ディープ・オペレーター・ネットワーク(DeepONet)は、偏微分方程式(PDE)によって支配される系の代理モデルとして、無限次元関数空間間の写像を高精度に学習することとして、非常に有望であることが示されている。
しかし、低い一般化誤差を達成するには、しばしば高度に過度にパラメータ化されたネットワークを必要とし、大規模で複雑なシステムにおいて重大な課題を提起する。
これらの課題に対処するため、潜在DeepONetは2段階のアプローチを導入して提案された。
有効ではあるが、この方法は本質的にはデータ駆動であり、大きなデータセットに依存し、支配物理をフレームワークに組み込むのが困難である。
さらに、これらのステップの分離された性質は、エンドツーエンドの最適化とデータの不足を処理する能力を妨げる。
この研究は、これらの制限を克服する物理インフォームされた潜在演算子学習フレームワークであるPI-Latent-NOを導入している。
我々のアーキテクチャでは2つの結合したDeepONetsをエンドツーエンドのトレーニングスキームで採用している。第1のLatent-DeepONetは低次元の潜在空間を特定し学習し、第2のRestruction-DeepONetは潜在表現を元の物理空間にマッピングする。
制御物理を直接トレーニングプロセスに統合することにより、高精度なデータサンプルを達成しつつ、極めて少ないデータサンプルを必要とする。
さらに、このフレームワークは計算とメモリ効率が良く、単一のGPU上でほぼ一定のスケーリング動作を示し、分散トレーニングによるさらなる効率向上の可能性を示している。
提案手法を高次元パラメトリックPDEで検証し,概念実証としての有効性と大規模システムへの拡張可能性を示す。
関連論文リスト
- FB-HyDON: Parameter-Efficient Physics-Informed Operator Learning of Complex PDEs via Hypernetwork and Finite Basis Domain Decomposition [0.0]
ディープ・オペレータ・ネットワーク(DeepONet)とニューラル・オペレーターは無限次元の関数空間をマッピングし、ゼロショット超解像を行う能力において大きな注目を集めている。
本稿では,Finite Basis Physics-Informed HyperDeepONet (FB-HyDON)を紹介した。
ハイパーネットワークと有限基底関数を利用することで、FB-HyDONは既存の物理インフォームド演算子学習法に関連するトレーニング制限を効果的に緩和する。
論文 参考訳(メタデータ) (2024-09-13T21:41:59Z) - Separable DeepONet: Breaking the Curse of Dimensionality in Physics-Informed Machine Learning [0.0]
ラベル付きデータセットがない場合、PDE残留損失を利用して物理系を学習する。
この手法は、主に次元の呪いによる重要な計算課題に直面するが、計算コストは、より詳細な離散化とともに指数関数的に増加する。
本稿では,これらの課題に対処し,高次元PDEのスケーラビリティを向上させるために,分離可能なDeepONetフレームワークを紹介する。
論文 参考訳(メタデータ) (2024-07-21T16:33:56Z) - Training Deep Surrogate Models with Large Scale Online Learning [48.7576911714538]
ディープラーニングアルゴリズムは、PDEの高速解を得るための有効な代替手段として登場した。
モデルは通常、ソルバによって生成された合成データに基づいてトレーニングされ、ディスクに格納され、トレーニングのために読み返される。
ディープサロゲートモデルのためのオープンソースのオンライントレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-28T12:02:27Z) - Learning in latent spaces improves the predictive accuracy of deep
neural operators [0.0]
L-DeepONetは標準のDeepONetの拡張であり、高次元PDE入力の潜在表現と適切なオートエンコーダで識別される出力関数を利用する。
L-DeepONetは時間依存PDEの精度と計算効率の両面で標準手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-04-15T17:13:09Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - NeuralStagger: Accelerating Physics-constrained Neural PDE Solver with
Spatial-temporal Decomposition [67.46012350241969]
本稿では,NeuralStaggerと呼ばれる一般化手法を提案する。
元の学習タスクをいくつかの粗い解像度のサブタスクに分解する。
本稿では,2次元および3次元流体力学シミュレーションにおけるNeuralStaggerの適用例を示す。
論文 参考訳(メタデータ) (2023-02-20T19:36:52Z) - Solving High-Dimensional PDEs with Latent Spectral Models [74.1011309005488]
我々は,高次元PDEの効率的かつ高精度な解法に向けて,Latent Spectral Models (LSM) を提案する。
数値解析において古典スペクトル法に着想を得て,潜時空間におけるPDEを解くために,ニューラルスペクトルブロックを設計する。
LSMは、一貫した最先端を実現し、7つのベンチマークで平均11.5%の相対的な利益を得る。
論文 参考訳(メタデータ) (2023-01-30T04:58:40Z) - Physics-informed Deep Super-resolution for Spatiotemporal Data [18.688475686901082]
ディープ・ラーニングは、粗い粒度のシミュレーションに基づいて科学的データを増やすのに使うことができる。
物理インフォームドラーニングにインスパイアされた、豊かで効率的な時間的超解像フレームワークを提案する。
その結果,提案手法の有効性と効率が,ベースラインアルゴリズムと比較して優れていることが示された。
論文 参考訳(メタデータ) (2022-08-02T13:57:35Z) - Characterizing possible failure modes in physics-informed neural
networks [55.83255669840384]
科学機械学習における最近の研究は、いわゆる物理情報ニューラルネットワーク(PINN)モデルを開発した。
既存のPINN方法論は比較的自明な問題に対して優れたモデルを学ぶことができるが、単純なPDEであっても、関連する物理現象を学習するのに失敗する可能性があることを実証する。
これらの障害モードは,NNアーキテクチャの表現力の欠如によるものではなく,PINNのセットアップによって損失状況の最適化が極めて困難であることを示す。
論文 参考訳(メタデータ) (2021-09-02T16:06:45Z) - Learning the solution operator of parametric partial differential
equations with physics-informed DeepOnets [0.0]
ディープ作用素ネットワーク(DeepONets)は、無限次元バナッハ空間間の非線形作用素を近似する実証能力によって注目されている。
DeepOnetモデルの出力をバイアスする効果的な正規化メカニズムを導入し、物理整合性を確保する新しいモデルクラスを提案する。
我々は,このシンプルかつ極めて効果的な拡張が,DeepOnetsの予測精度を大幅に向上するだけでなく,大規模なトレーニングデータセットの必要性を大幅に低減できることを示した。
論文 参考訳(メタデータ) (2021-03-19T18:15:42Z) - Large-Scale Gradient-Free Deep Learning with Recursive Local
Representation Alignment [84.57874289554839]
大規模データセット上でディープニューラルネットワークをトレーニングするには、重要なハードウェアリソースが必要である。
これらのネットワークをトレーニングするためのワークホースであるバックプロパゲーションは、本質的に並列化が難しいシーケンシャルなプロセスである。
本稿では、深層ネットワークのトレーニングに使用できるバックプロップに代わる、神経生物学的に有望な代替手段を提案する。
論文 参考訳(メタデータ) (2020-02-10T16:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。