論文の概要: Learning in latent spaces improves the predictive accuracy of deep
neural operators
- arxiv url: http://arxiv.org/abs/2304.07599v1
- Date: Sat, 15 Apr 2023 17:13:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-18 18:15:07.346929
- Title: Learning in latent spaces improves the predictive accuracy of deep
neural operators
- Title(参考訳): 潜時空間での学習はディープニューラル演算子の予測精度を改善する
- Authors: Katiana Kontolati, Somdatta Goswami, George Em Karniadakis, Michael D.
Shields
- Abstract要約: L-DeepONetは標準のDeepONetの拡張であり、高次元PDE入力の潜在表現と適切なオートエンコーダで識別される出力関数を利用する。
L-DeepONetは時間依存PDEの精度と計算効率の両面で標準手法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Operator regression provides a powerful means of constructing
discretization-invariant emulators for partial-differential equations (PDEs)
describing physical systems. Neural operators specifically employ deep neural
networks to approximate mappings between infinite-dimensional Banach spaces. As
data-driven models, neural operators require the generation of labeled
observations, which in cases of complex high-fidelity models result in
high-dimensional datasets containing redundant and noisy features, which can
hinder gradient-based optimization. Mapping these high-dimensional datasets to
a low-dimensional latent space of salient features can make it easier to work
with the data and also enhance learning. In this work, we investigate the
latent deep operator network (L-DeepONet), an extension of standard DeepONet,
which leverages latent representations of high-dimensional PDE input and output
functions identified with suitable autoencoders. We illustrate that L-DeepONet
outperforms the standard approach in terms of both accuracy and computational
efficiency across diverse time-dependent PDEs, e.g., modeling the growth of
fracture in brittle materials, convective fluid flows, and large-scale
atmospheric flows exhibiting multiscale dynamical features.
- Abstract(参考訳): 演算子の回帰は、物理系を記述する部分微分方程式(PDE)のための離散化不変エミュレータを構築する強力な手段を提供する。
ニューラルネットワークは特に、無限次元バナッハ空間間の近似写像にディープニューラルネットワークを用いる。
データ駆動モデルとして、ニューラルネットワークはラベル付き観測を生成する必要があり、複雑な高忠実度モデルの場合、冗長でノイズの多い特徴を含む高次元データセットが発生し、勾配に基づく最適化を妨げる。
これらの高次元データセットを、突出した機能の低次元の潜在空間にマッピングすることで、データの処理や学習の促進が容易になる。
本研究では,高次元 pde 入力と出力関数の潜在表現を適切なオートエンコーダと同一視する標準 deeponet の拡張である latent deep operator network (l-deeponet) について検討する。
l-deeponetは, 脆性材料の破壊, 対流流体流, 大規模大気流動のモデル化など, 様々な時間依存型pdesにおいて, 精度と計算効率の両方において, 標準的アプローチを上回っている。
関連論文リスト
- DimOL: Dimensional Awareness as A New 'Dimension' in Operator Learning [63.5925701087252]
本稿では,DimOL(Dimension-aware Operator Learning)を紹介し,次元解析から洞察を得る。
DimOLを実装するために,FNOおよびTransformerベースのPDEソルバにシームレスに統合可能なProdLayerを提案する。
経験的に、DimOLモデルはPDEデータセット内で最大48%のパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - Separable DeepONet: Breaking the Curse of Dimensionality in Physics-Informed Machine Learning [0.0]
ラベル付きデータセットがない場合、PDE残留損失を利用して物理系を学習する。
この手法は、主に次元の呪いによる重要な計算課題に直面するが、計算コストは、より詳細な離散化とともに指数関数的に増加する。
本稿では,これらの課題に対処し,高次元PDEのスケーラビリティを向上させるために,分離可能なDeepONetフレームワークを紹介する。
論文 参考訳(メタデータ) (2024-07-21T16:33:56Z) - RandONet: Shallow-Networks with Random Projections for learning linear and nonlinear operators [0.0]
ランダムプロジェクションに基づく演算子ネットワーク(RandONets)を提案する。
ランダムネット(RandONets)は、線形および非線形作用素を学習するランダムプロジェクションを持つ浅いネットワークである。
このタスクにおいて、RandONetsは数値近似の精度と計算コストの両面で、バニラ"DeepOnetsよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-06-08T13:20:48Z) - Learning time-dependent PDE via graph neural networks and deep operator
network for robust accuracy on irregular grids [14.93012615797081]
GraphDeepONetはグラフニューラルネットワーク(GNN)に基づく自己回帰モデルである
既存のGNNベースのPDEソルバモデルと比較すると,解の精度は高い。
従来のDeepONetとその変種とは異なり、GraphDeepONetは時間依存PDEソリューションの時間外挿を可能にする。
論文 参考訳(メタデータ) (2024-02-13T03:14:32Z) - Training Deep Surrogate Models with Large Scale Online Learning [48.7576911714538]
ディープラーニングアルゴリズムは、PDEの高速解を得るための有効な代替手段として登場した。
モデルは通常、ソルバによって生成された合成データに基づいてトレーニングされ、ディスクに格納され、トレーニングのために読み返される。
ディープサロゲートモデルのためのオープンソースのオンライントレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-28T12:02:27Z) - VTAE: Variational Transformer Autoencoder with Manifolds Learning [144.0546653941249]
深層生成モデルは、多くの潜伏変数を通して非線形データ分布の学習に成功している。
ジェネレータの非線形性は、潜在空間がデータ空間の不満足な射影を示し、表現学習が不十分になることを意味する。
本研究では、測地学と正確な計算により、深部生成モデルの性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-04-03T13:13:19Z) - Score-based Diffusion Models in Function Space [140.792362459734]
拡散モデルは、最近、生成モデリングの強力なフレームワークとして登場した。
本稿では,関数空間における拡散モデルをトレーニングするためのDDO(Denoising Diffusion Operators)という,数学的に厳密なフレームワークを提案する。
データ解像度に依存しない固定コストで、対応する離散化アルゴリズムが正確なサンプルを生成することを示す。
論文 参考訳(メタデータ) (2023-02-14T23:50:53Z) - Solving High-Dimensional PDEs with Latent Spectral Models [74.1011309005488]
我々は,高次元PDEの効率的かつ高精度な解法に向けて,Latent Spectral Models (LSM) を提案する。
数値解析において古典スペクトル法に着想を得て,潜時空間におけるPDEを解くために,ニューラルスペクトルブロックを設計する。
LSMは、一貫した最先端を実現し、7つのベンチマークで平均11.5%の相対的な利益を得る。
論文 参考訳(メタデータ) (2023-01-30T04:58:40Z) - Bayesian Interpolation with Deep Linear Networks [92.1721532941863]
ニューラルネットワークの深さ、幅、データセットサイズがモデル品質にどう影響するかを特徴付けることは、ディープラーニング理論における中心的な問題である。
線形ネットワークが無限深度で証明可能な最適予測を行うことを示す。
また、データに依存しない先行法により、広い線形ネットワークにおけるベイズ模型の証拠は無限の深さで最大化されることを示す。
論文 参考訳(メタデータ) (2022-12-29T20:57:46Z) - Reliable extrapolation of deep neural operators informed by physics or
sparse observations [2.887258133992338]
ディープニューラルネットワークは、ディープニューラルネットワークを介して無限次元関数空間間の非線形マッピングを学習することができる。
DeepONetsは科学と工学の新しいシミュレーションパラダイムを提供する。
本稿では,外挿下での安全な予測を保証する5つの信頼性学習手法を提案する。
論文 参考訳(メタデータ) (2022-12-13T03:02:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。