論文の概要: Implicit Neural Spatial Representations for Time-dependent PDEs
- arxiv url: http://arxiv.org/abs/2210.00124v1
- Date: Fri, 30 Sep 2022 22:46:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 18:11:56.081224
- Title: Implicit Neural Spatial Representations for Time-dependent PDEs
- Title(参考訳): 時間依存型PDEのための暗黙的空間表現
- Authors: Honglin Chen, Rundi Wu, Eitan Grinspun, Changxi Zheng, Peter Yichen
Chen
- Abstract要約: 偏微分方程式(PDE)は、しばしば空間的および時間的離散化を必要とする。
伝統的な手法では、格子、メッシュ、点雲などの空間的離散化がしばしば採用されている。
我々は、空間情報をニューラルネットワークの重みに暗黙的に格納する空間離散化の代替として、暗黙的な神経表現を探求する。
提案手法は, 複雑なリメッシングを伴わずに, 精度が高く, メモリ消費が低く, 動的に自由度を割り振る。
- 参考スコア(独自算出の注目度): 29.404161110513616
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Numerically solving partial differential equations (PDEs) often entails
spatial and temporal discretizations. Traditional methods (e.g., finite
difference, finite element, smoothed-particle hydrodynamics) frequently adopt
explicit spatial discretizations, such as grids, meshes, and point clouds,
where each degree-of-freedom corresponds to a location in space. While these
explicit spatial correspondences are intuitive to model and understand, these
representations are not necessarily optimal for accuracy, memory-usage, or
adaptivity. In this work, we explore implicit neural representation as an
alternative spatial discretization, where spatial information is implicitly
stored in the neural network weights. With implicit neural spatial
representation, PDE-constrained time-stepping translates into updating neural
network weights, which naturally integrates with commonly adopted optimization
time integrators. We validate our approach on a variety of classic PDEs with
examples involving large elastic deformations, turbulent fluids, and multiscale
phenomena. While slower to compute than traditional representations, our
approach exhibits higher accuracy, lower memory consumption, and dynamically
adaptive allocation of degrees of freedom without complex remeshing.
- Abstract(参考訳): 偏微分方程式(PDE)は、しばしば空間的および時間的離散化を必要とする。
従来の方法(有限差分、有限要素、滑らかな粒子流体力学など)では、格子、メッシュ、点雲などの空間的離散化がしばしば採用され、各自由度が空間上の位置に対応する。
これらの明示的な空間対応はモデルや理解に直感的であるが、これらの表現は必ずしも正確性、メモリ使用量、適応性に最適ではない。
本研究では,空間情報をニューラルネットワークの重みに暗黙的に格納する空間離散化手法として,暗黙的な神経表現を探索する。
暗黙的なニューラルネットワーク空間表現では、pdeが制約する時間ステップはニューラルネットワークの重みの更新へと変換され、一般的に採用されている最適化時間積分器と自然に統合される。
我々は, 弾性変形, 乱流流体, マルチスケール現象を例に, 様々な古典的PDEに対するアプローチを検証した。
従来の表現よりも計算が遅いが,より精度が高く,メモリ消費が低く,複雑なリメッシングを伴わずに動的に自由度を割り当てることができる。
関連論文リスト
- Cross Space and Time: A Spatio-Temporal Unitized Model for Traffic Flow Forecasting [16.782154479264126]
時間的要因間の複雑な相互作用により、バックボーン・時間的トラフィックフローを予測することが課題となる。
既存のアプローチでは、これらの次元を分離し、重要な相互依存を無視している。
本稿では,空間的および時間的依存関係の両方をキャプチャする統合フレームワークであるSanonymous-Temporal Unitized Unitized Cell (ASTUC)を紹介する。
論文 参考訳(メタデータ) (2024-11-14T07:34:31Z) - PhyMPGN: Physics-encoded Message Passing Graph Network for spatiotemporal PDE systems [31.006807854698376]
我々は物理符号化されたメッセージパッシンググラフネットワーク(PhyMPGN)という新しいグラフ学習手法を提案する。
我々は,GNNを数値積分器に組み込んで,与えられたPDEシステムに対する時間的時間的ダイナミクスの時間的行進を近似する。
PhyMPGNは、粗い非構造メッシュ上での様々なタイプの時間的ダイナミクスを正確に予測することができる。
論文 参考訳(メタデータ) (2024-10-02T08:54:18Z) - Smooth and Sparse Latent Dynamics in Operator Learning with Jerk
Regularization [1.621267003497711]
本稿では,圧縮された潜在空間の学習にジャッジ正規化を組み込んだ連続演算子学習フレームワークを提案する。
このフレームワークは、任意の所望の空間的あるいは時間的解像度での推論を可能にする。
この枠組みの有効性は、ナヴィエ・ストークス方程式によって支配される二次元非定常流問題によって証明される。
論文 参考訳(メタデータ) (2024-02-23T22:38:45Z) - Solving High-Dimensional PDEs with Latent Spectral Models [74.1011309005488]
我々は,高次元PDEの効率的かつ高精度な解法に向けて,Latent Spectral Models (LSM) を提案する。
数値解析において古典スペクトル法に着想を得て,潜時空間におけるPDEを解くために,ニューラルスペクトルブロックを設計する。
LSMは、一貫した最先端を実現し、7つのベンチマークで平均11.5%の相対的な利益を得る。
論文 参考訳(メタデータ) (2023-01-30T04:58:40Z) - Continuous PDE Dynamics Forecasting with Implicit Neural Representations [24.460010868042758]
空間連続関数の連続時間ダイナミクスを用いたPDE流れに対する新しいデータ駆動型アプローチを提案する。
これは、Implicit Neural Representationsによる離散化とは無関係に空間外挿を埋め込むことによって達成される。
任意の空間的および時間的位置で外挿し、テスト時にスパースグリッドや不規則なデータを学習し、新しいグリッドや解像度に一般化する。
論文 参考訳(メタデータ) (2022-09-29T15:17:50Z) - Semi-supervised Learning of Partial Differential Operators and Dynamical
Flows [68.77595310155365]
本稿では,超ネットワーク解法とフーリエニューラル演算子アーキテクチャを組み合わせた新しい手法を提案する。
本手法は, 1次元, 2次元, 3次元の非線形流体を含む様々な時間発展PDEを用いて実験を行った。
その結果、新しい手法は、監督点の時点における学習精度を向上し、任意の中間時間にその解を補間できることを示した。
論文 参考訳(メタデータ) (2022-07-28T19:59:14Z) - Learning to Accelerate Partial Differential Equations via Latent Global
Evolution [64.72624347511498]
The Latent Evolution of PDEs (LE-PDE) is a simple, fast and scalable method to accelerate the simulation and inverse optimization of PDEs。
我々は,このような潜在力学を効果的に学習し,長期的安定性を確保するために,新たな学習目標を導入する。
更新対象の寸法が最大128倍、速度が最大15倍向上し、競争精度が向上した。
論文 参考訳(メタデータ) (2022-06-15T17:31:24Z) - Unraveled Multilevel Transformation Networks for Predicting
Sparsely-Observed Spatiotemporal Dynamics [12.627823168264209]
疎分散データサイトからのデータを用いて未知のダイナミクスを予測するモデルを提案する。
合成気候データと実世界の気候データの両方を用いて、我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2022-03-16T14:44:05Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - Adaptive Latent Space Tuning for Non-Stationary Distributions [62.997667081978825]
本稿では,ディープエンコーダ・デコーダ方式cnnの低次元潜在空間の適応チューニング法を提案する。
粒子加速器における時間変動荷電粒子ビームの特性を予測するためのアプローチを実証する。
論文 参考訳(メタデータ) (2021-05-08T03:50:45Z) - Time Dependence in Non-Autonomous Neural ODEs [74.78386661760662]
時変重みを持つニューラルODEの新しいファミリーを提案する。
我々は、速度と表現能力の両面で、従来のニューラルODEの変形よりも優れていた。
論文 参考訳(メタデータ) (2020-05-05T01:41:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。