論文の概要: CALM-PDE: Continuous and Adaptive Convolutions for Latent Space Modeling of Time-dependent PDEs
- arxiv url: http://arxiv.org/abs/2505.12944v1
- Date: Mon, 19 May 2025 10:31:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.538031
- Title: CALM-PDE: Continuous and Adaptive Convolutions for Latent Space Modeling of Time-dependent PDEs
- Title(参考訳): CALM-PDE:時間依存PDEの潜在空間モデリングのための連続的および適応的畳み込み
- Authors: Jan Hagnberger, Daniel Musekamp, Mathias Niepert,
- Abstract要約: CALM-PDEは圧縮潜在空間における任意の離散化PDEを効率的に解くモデルクラスである。
我々は,エプシロン近傍に制約のあるカーネルを用いた,新しい連続畳み込み型エンコーダデコーダアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 15.350973327319418
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Solving time-dependent Partial Differential Equations (PDEs) using a densely discretized spatial domain is a fundamental problem in various scientific and engineering disciplines, including modeling climate phenomena and fluid dynamics. However, performing these computations directly in the physical space often incurs significant computational costs. To address this issue, several neural surrogate models have been developed that operate in a compressed latent space to solve the PDE. While these approaches reduce computational complexity, they often use Transformer-based attention mechanisms to handle irregularly sampled domains, resulting in increased memory consumption. In contrast, convolutional neural networks allow memory-efficient encoding and decoding but are limited to regular discretizations. Motivated by these considerations, we propose CALM-PDE, a model class that efficiently solves arbitrarily discretized PDEs in a compressed latent space. We introduce a novel continuous convolution-based encoder-decoder architecture that uses an epsilon-neighborhood-constrained kernel and learns to apply the convolution operator to adaptive and optimized query points. We demonstrate the effectiveness of CALM-PDE on a diverse set of PDEs with both regularly and irregularly sampled spatial domains. CALM-PDE is competitive with or outperforms existing baseline methods while offering significant improvements in memory and inference time efficiency compared to Transformer-based methods.
- Abstract(参考訳): 密集した離散化された空間領域を用いた時間依存部分微分方程式(PDE)の解法は、気候現象のモデリングや流体力学など、様々な科学・工学分野における基本的な問題である。
しかし、これらの計算を物理空間で直接実行すると、しばしばかなりの計算コストが発生する。
この問題に対処するため、PDEを解くために圧縮された潜在空間で動作するいくつかのニューラルサロゲートモデルが開発されている。
これらのアプローチは計算複雑性を減少させるが、不規則にサンプリングされたドメインを扱うためにTransformerベースのアテンションメカニズムを使うことが多く、結果としてメモリ消費が増加する。
対照的に畳み込みニューラルネットワークはメモリ効率のよい符号化と復号を可能にするが、通常の離散化に限定されている。
これらの考察により、圧縮潜在空間における任意の離散化PDEを効率的に解くモデルクラスであるCALM-PDEを提案する。
そこで我々は,epsilon-neighborhood-constrained kernel を用いた新しい連続畳み込み型エンコーダデコーダアーキテクチャを導入し,適応的で最適化されたクエリポイントに畳み込み演算子を適用することを学ぶ。
そこで本研究では,CALM-PDEが空間領域の定期的および不規則なサンプリングを行う多種多様なPDEに対して有効であることを示す。
CALM-PDEは、Transformerベースの手法と比較して、メモリと推論時間の大幅な改善を図りながら、既存のベースライン手法と競合する。
関連論文リスト
- A Deep Learning approach for parametrized and time dependent Partial Differential Equations using Dimensionality Reduction and Neural ODEs [46.685771141109306]
時間依存・パラメトリック・(典型的には)非線形PDEに対する古典的数値解法と類似した自己回帰・データ駆動手法を提案する。
DRを活用することで、より正確な予測を提供するだけでなく、より軽量でより高速なディープラーニングモデルを提供できることを示す。
論文 参考訳(メタデータ) (2025-02-12T11:16:15Z) - Advancing Generalization in PINNs through Latent-Space Representations [71.86401914779019]
物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)によって支配される力学系のモデリングにおいて大きな進歩を遂げた。
本稿では,多種多様なPDE構成を効果的に一般化する物理インフォームドニューラルPDE解法PIDOを提案する。
PIDOは1次元合成方程式と2次元ナビエ・ストークス方程式を含む様々なベンチマークで検証する。
論文 参考訳(メタデータ) (2024-11-28T13:16:20Z) - Solving High-Dimensional PDEs with Latent Spectral Models [74.1011309005488]
我々は,高次元PDEの効率的かつ高精度な解法に向けて,Latent Spectral Models (LSM) を提案する。
数値解析において古典スペクトル法に着想を得て,潜時空間におけるPDEを解くために,ニューラルスペクトルブロックを設計する。
LSMは、一貫した最先端を実現し、7つのベンチマークで平均11.5%の相対的な利益を得る。
論文 参考訳(メタデータ) (2023-01-30T04:58:40Z) - Implicit Neural Spatial Representations for Time-dependent PDEs [29.404161110513616]
Inlicit Neural Spatial Representation (INSR) は空間依存ベクトル場の効果的な表現として登場した。
本研究は,INSRを用いた時間依存型PDEの解法について検討する。
論文 参考訳(メタデータ) (2022-09-30T22:46:40Z) - LordNet: An Efficient Neural Network for Learning to Solve Parametric Partial Differential Equations without Simulated Data [47.49194807524502]
エンタングルメントをモデル化するためのチューナブルで効率的なニューラルネットワークであるLordNetを提案する。
ポアソン方程式と(2Dおよび3D)ナビエ・ストークス方程式を解く実験は、長距離の絡み合いがロードネットによってうまくモデル化できることを示した。
論文 参考訳(メタデータ) (2022-06-19T14:41:08Z) - Learning to Accelerate Partial Differential Equations via Latent Global
Evolution [64.72624347511498]
The Latent Evolution of PDEs (LE-PDE) is a simple, fast and scalable method to accelerate the simulation and inverse optimization of PDEs。
我々は,このような潜在力学を効果的に学習し,長期的安定性を確保するために,新たな学習目標を導入する。
更新対象の寸法が最大128倍、速度が最大15倍向上し、競争精度が向上した。
論文 参考訳(メタデータ) (2022-06-15T17:31:24Z) - CROM: Continuous Reduced-Order Modeling of PDEs Using Implicit Neural
Representations [5.551136447769071]
高忠実度偏微分方程式ソルバの過剰実行は、時間クリティカルな応用には適さない。
我々は低次モデリング(ROM)を用いたPDEソルバの高速化を提案する。
我々のアプローチは、その離散化ではなく、連続ベクトル場自体の滑らかで低次元多様体を構築する。
論文 参考訳(メタデータ) (2022-06-06T13:27:21Z) - STENCIL-NET: Data-driven solution-adaptive discretization of partial
differential equations [2.362412515574206]
STENCIL-NETは、非線形PDEの問題と分解能特異的な局所識別のデータ駆動学習のための人工ニューラルネットワークアーキテクチャである。
ソリューションデータは、離散演算子を学ぶためにネットワークを訓練するのに十分であるため、実際のPDEを知る必要はありません。
一度トレーニングされたSTENCIL-NETモデルは、トレーニング済みのより長い時間、より大きなドメインでのPDEのソリューションを予測するために使用できる。
論文 参考訳(メタデータ) (2021-01-15T15:43:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。