論文の概要: Solving High-Dimensional PDEs with Latent Spectral Models
- arxiv url: http://arxiv.org/abs/2301.12664v3
- Date: Mon, 29 May 2023 16:30:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-31 01:56:24.019299
- Title: Solving High-Dimensional PDEs with Latent Spectral Models
- Title(参考訳): 潜在スペクトルモデルを用いた高次元PDEの解法
- Authors: Haixu Wu, Tengge Hu, Huakun Luo, Jianmin Wang, Mingsheng Long
- Abstract要約: 我々は,高次元PDEの効率的かつ高精度な解法に向けて,Latent Spectral Models (LSM) を提案する。
数値解析において古典スペクトル法に着想を得て,潜時空間におけるPDEを解くために,ニューラルスペクトルブロックを設計する。
LSMは、一貫した最先端を実現し、7つのベンチマークで平均11.5%の相対的な利益を得る。
- 参考スコア(独自算出の注目度): 74.1011309005488
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep models have achieved impressive progress in solving partial differential
equations (PDEs). A burgeoning paradigm is learning neural operators to
approximate the input-output mappings of PDEs. While previous deep models have
explored the multiscale architectures and various operator designs, they are
limited to learning the operators as a whole in the coordinate space. In real
physical science problems, PDEs are complex coupled equations with numerical
solvers relying on discretization into high-dimensional coordinate space, which
cannot be precisely approximated by a single operator nor efficiently learned
due to the curse of dimensionality. We present Latent Spectral Models (LSM)
toward an efficient and precise solver for high-dimensional PDEs. Going beyond
the coordinate space, LSM enables an attention-based hierarchical projection
network to reduce the high-dimensional data into a compact latent space in
linear time. Inspired by classical spectral methods in numerical analysis, we
design a neural spectral block to solve PDEs in the latent space that
approximates complex input-output mappings via learning multiple basis
operators, enjoying nice theoretical guarantees for convergence and
approximation. Experimentally, LSM achieves consistent state-of-the-art and
yields a relative gain of 11.5% averaged on seven benchmarks covering both
solid and fluid physics. Code is available at
https://github.com/thuml/Latent-Spectral-Models.
- Abstract(参考訳): ディープモデルは偏微分方程式(PDE)の解法において顕著な進歩を遂げた。
膨れ上がるパラダイムは、ニューラル演算子を学習してPDEの入出力マッピングを近似することである。
従来のディープモデルは、マルチスケールアーキテクチャや様々なオペレーターの設計を探索してきたが、それらは座標空間における演算子全体の学習に限られていた。
現実の物理科学問題において、pdes は高次元座標空間への離散化に依存する数値解法を持つ複素結合方程式であり、これは単一の作用素によって正確に近似することも、次元の呪いによって効率的に学習することもできない。
我々は,高次元PDEの効率的かつ高精度な解法に向けた潜在スペクトルモデル(LSM)を提案する。
座標空間を超えて、LSMは注意に基づく階層的射影ネットワークを可能にし、高次元データを線形時間でコンパクトな潜在空間に還元する。
数値解析において古典スペクトル法に着想を得て,複数の基底演算子を学習することで複雑な入力出力マッピングを近似し,収束と近似の理論的保証を良好に享受する潜在空間のPDEを解くニューラルネットワークスペクトルブロックを設計した。
実験的に、LSMは一貫した最先端を実現し、固体物理学と流体物理学の両方をカバーする7つのベンチマークで平均11.5%の相対的な利得を得る。
コードはhttps://github.com/thuml/Latent-Spectral-Modelsで入手できる。
関連論文リスト
- A Deep Learning approach for parametrized and time dependent Partial Differential Equations using Dimensionality Reduction and Neural ODEs [46.685771141109306]
時間依存・パラメトリック・(典型的には)非線形PDEに対する古典的数値解法と類似した自己回帰・データ駆動手法を提案する。
DRを活用することで、より正確な予測を提供するだけでなく、より軽量でより高速なディープラーニングモデルを提供できることを示す。
論文 参考訳(メタデータ) (2025-02-12T11:16:15Z) - Transolver++: An Accurate Neural Solver for PDEs on Million-Scale Geometries [67.63077028746191]
Transolver++は、百万のスケールでPDEを解くことができる、非常に並列で効率的なニューラルソルバである。
Transolver++は、シングルGPU入力能力を初めて100万ポイントに拡張する。
数百万スケールの高忠実度産業シミュレーションで20%以上の性能向上を実現している。
論文 参考訳(メタデータ) (2025-02-04T15:33:50Z) - DimOL: Dimensional Awareness as A New 'Dimension' in Operator Learning [63.5925701087252]
本稿では,DimOL(Dimension-aware Operator Learning)を紹介し,次元解析から洞察を得る。
DimOLを実装するために,FNOおよびTransformerベースのPDEソルバにシームレスに統合可能なProdLayerを提案する。
経験的に、DimOLモデルはPDEデータセット内で最大48%のパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - Separable DeepONet: Breaking the Curse of Dimensionality in Physics-Informed Machine Learning [0.0]
ラベル付きデータセットがない場合、PDE残留損失を利用して物理系を学習する。
この手法は、主に次元の呪いによる重要な計算課題に直面するが、計算コストは、より詳細な離散化とともに指数関数的に増加する。
本稿では,これらの課題に対処し,高次元PDEのスケーラビリティを向上させるために,分離可能なDeepONetフレームワークを紹介する。
論文 参考訳(メタデータ) (2024-07-21T16:33:56Z) - Pretraining Codomain Attention Neural Operators for Solving Multiphysics PDEs [85.40198664108624]
PDEを用いた多物理問題の解法として,コドメイン注意ニューラル演算子(CoDA-NO)を提案する。
CoDA-NOはコドメインやチャネル空間に沿った機能をトークン化し、複数のPDEシステムの自己教師付き学習や事前訓練を可能にする。
CoDA-NOは、データ制限のある複雑な下流タスクにおいて、既存のメソッドを36%以上上回ります。
論文 参考訳(メタデータ) (2024-03-19T08:56:20Z) - Approximation of Solution Operators for High-dimensional PDEs [2.3076986663832044]
進化的偏微分方程式の解演算子を近似する有限次元制御法を提案する。
結果は、ハミルトン・ヤコビ・ベルマン方程式を解くための実世界の応用を含む、いくつかの高次元PDEに対して提示される。
論文 参考訳(メタデータ) (2024-01-18T21:45:09Z) - Spectral operator learning for parametric PDEs without data reliance [6.7083321695379885]
本研究では,データ活用を必要とせずにパラメトリック偏微分方程式(PDE)を解く演算子に基づく新しい手法を提案する。
提案手法は,既存の科学的機械学習技術と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2023-10-03T12:37:15Z) - Learning in latent spaces improves the predictive accuracy of deep
neural operators [0.0]
L-DeepONetは標準のDeepONetの拡張であり、高次元PDE入力の潜在表現と適切なオートエンコーダで識別される出力関数を利用する。
L-DeepONetは時間依存PDEの精度と計算効率の両面で標準手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-04-15T17:13:09Z) - Neural Operator with Regularity Structure for Modeling Dynamics Driven
by SPDEs [70.51212431290611]
偏微分方程式 (SPDE) は、大気科学や物理学を含む多くの分野において、力学をモデル化するための重要なツールである。
本研究では,SPDEによって駆動されるダイナミクスをモデル化するための特徴ベクトルを組み込んだニューラル演算子(NORS)を提案する。
動的Phi41モデルと2d Navier-Stokes方程式を含む様々なSPDE実験を行った。
論文 参考訳(メタデータ) (2022-04-13T08:53:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。