論文の概要: Efficient Learning of PDEs via Taylor Expansion and Sparse Decomposition
into Value and Fourier Domains
- arxiv url: http://arxiv.org/abs/2309.07344v1
- Date: Wed, 13 Sep 2023 22:48:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-15 16:38:19.782735
- Title: Efficient Learning of PDEs via Taylor Expansion and Sparse Decomposition
into Value and Fourier Domains
- Title(参考訳): テイラー展開とスパース分割によるPDEの値とフーリエ領域への効率的な学習
- Authors: Md Nasim, Yexiang Xue
- Abstract要約: 限定された分解可能なPDEのクラスは、値領域にスパースな特徴を持っている。
ランダムプロジェクションによるPDEの学習を高速化するReelを提案する。
提案したReelがPDEモデルのより高速な学習につながるという実証的な証拠を提供する。
- 参考スコア(独自算出の注目度): 12.963163500336066
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accelerating the learning of Partial Differential Equations (PDEs) from
experimental data will speed up the pace of scientific discovery. Previous
randomized algorithms exploit sparsity in PDE updates for acceleration. However
such methods are applicable to a limited class of decomposable PDEs, which have
sparse features in the value domain. We propose Reel, which accelerates the
learning of PDEs via random projection and has much broader applicability. Reel
exploits the sparsity by decomposing dense updates into sparse ones in both the
value and frequency domains. This decomposition enables efficient learning when
the source of the updates consists of gradually changing terms across large
areas (sparse in the frequency domain) in addition to a few rapid updates
concentrated in a small set of "interfacial" regions (sparse in the value
domain). Random projection is then applied to compress the sparse signals for
learning. To expand the model applicability, Taylor series expansion is used in
Reel to approximate the nonlinear PDE updates with polynomials in the
decomposable form. Theoretically, we derive a constant factor approximation
between the projected loss function and the original one with poly-logarithmic
number of projected dimensions. Experimentally, we provide empirical evidence
that our proposed Reel can lead to faster learning of PDE models (70-98%
reduction in training time when the data is compressed to 1% of its original
size) with comparable quality as the non-compressed models.
- Abstract(参考訳): 実験データから部分微分方程式(PDE)の学習を加速することは、科学的発見のペースを加速させる。
以前のランダム化アルゴリズムは、加速のためのPDE更新の空間性を利用する。
しかし、これらのメソッドは、値領域のスパースな特徴を持つ、限定された分解可能なPDEのクラスに適用できる。
ランダムプロジェクションによるPDEの学習を高速化し,より広い適用性を有するReelを提案する。
リールは値領域と周波数領域の両方で密度の高い更新をスパース領域に分解することでスパーシティを利用する。
この分解によって、更新のソースが、小さな"界面"領域(値領域の疎結合)に集中したいくつかの迅速な更新に加えて、大きな領域(頻度領域の疎結合)で徐々に用語を変更することで、効率的な学習が可能になる。
次にランダムプロジェクションを適用して、スパース信号を圧縮して学習する。
モデル適用性を拡張するために、テイラー級数展開はリールで非線形PDE更新を分解可能な多項式で近似するために用いられる。
理論的には、射影損失関数と射影次元の多対数数を持つ元の関数の間の定数係数近似を求める。
実験により,提案したReelがPDEモデルの高速学習(データ圧縮時のトレーニング時間の70~98%削減)を,非圧縮モデルと同等の品質で実現できることを示す。
関連論文リスト
- Active Learning for Neural PDE Solvers [18.665448858377694]
Active Learningは、モデルをより小さなトレーニングセットで同じ精度でサロゲートするのに役立ちます。
モジュール型かつアクティブな学習ベンチマークであるAL4PDEを紹介する。
ALは,ランダムサンプリングと比較して平均誤差を最大71%削減することを示した。
論文 参考訳(メタデータ) (2024-08-02T18:48:58Z) - Physics-informed deep learning and compressive collocation for high-dimensional diffusion-reaction equations: practical existence theory and numerics [5.380276949049726]
ディープラーニング(DL)に基づく高次元偏微分方程式の効率的な解法の開発と解析
理論的にも数値的にも,新しい安定かつ高精度なスペクトルコロケーション法と競合できることを示す。
論文 参考訳(メタデータ) (2024-06-03T17:16:11Z) - Reduced-order modeling for parameterized PDEs via implicit neural
representations [4.135710717238787]
我々は、パラメータ化偏微分方程式(PDE)を効率的に解くために、新しいデータ駆動型低次モデリング手法を提案する。
提案フレームワークは、PDEを符号化し、パラメトリゼーションニューラルネットワーク(PNODE)を用いて、複数のPDEパラメータを特徴とする潜時ダイナミクスを学習する。
我々は,提案手法を大規模なレイノルズ数で評価し,O(103)の高速化と,基底真理値に対する1%の誤差を得る。
論文 参考訳(メタデータ) (2023-11-28T01:35:06Z) - PDE-Refiner: Achieving Accurate Long Rollouts with Neural PDE Solvers [40.097474800631]
時間依存偏微分方程式(PDE)は、科学や工学においてユビキタスである。
ディープニューラルネットワークに基づくサロゲートへの関心が高まっている。
論文 参考訳(メタデータ) (2023-08-10T17:53:05Z) - Solving High-Dimensional PDEs with Latent Spectral Models [74.1011309005488]
我々は,高次元PDEの効率的かつ高精度な解法に向けて,Latent Spectral Models (LSM) を提案する。
数値解析において古典スペクトル法に着想を得て,潜時空間におけるPDEを解くために,ニューラルスペクトルブロックを設計する。
LSMは、一貫した最先端を実現し、7つのベンチマークで平均11.5%の相対的な利益を得る。
論文 参考訳(メタデータ) (2023-01-30T04:58:40Z) - FaDIn: Fast Discretized Inference for Hawkes Processes with General
Parametric Kernels [82.53569355337586]
この研究は、有限なサポートを持つ一般パラメトリックカーネルを用いた時間点プロセス推論の効率的な解を提供する。
脳磁図(MEG)により記録された脳信号からの刺激誘発パターンの発生をモデル化し,その有効性を評価する。
その結果,提案手法により,最先端技術よりもパターン遅延の推定精度が向上することが示唆された。
論文 参考訳(メタデータ) (2022-10-10T12:35:02Z) - Learning to Accelerate Partial Differential Equations via Latent Global
Evolution [64.72624347511498]
The Latent Evolution of PDEs (LE-PDE) is a simple, fast and scalable method to accelerate the simulation and inverse optimization of PDEs。
我々は,このような潜在力学を効果的に学習し,長期的安定性を確保するために,新たな学習目標を導入する。
更新対象の寸法が最大128倍、速度が最大15倍向上し、競争精度が向上した。
論文 参考訳(メタデータ) (2022-06-15T17:31:24Z) - CROM: Continuous Reduced-Order Modeling of PDEs Using Implicit Neural
Representations [5.551136447769071]
高忠実度偏微分方程式ソルバの過剰実行は、時間クリティカルな応用には適さない。
我々は低次モデリング(ROM)を用いたPDEソルバの高速化を提案する。
我々のアプローチは、その離散化ではなく、連続ベクトル場自体の滑らかで低次元多様体を構築する。
論文 参考訳(メタデータ) (2022-06-06T13:27:21Z) - Lie Point Symmetry Data Augmentation for Neural PDE Solvers [69.72427135610106]
本稿では,ニューラルPDEソルバサンプルの複雑性を改善することにより,この問題を部分的に緩和する手法を提案する。
PDEの文脈では、データ変換の完全なリストを定量的に導き出せることが分かりました。
神経性PDEソルバサンプルの複雑さを桁違いに改善するために、どのように容易に展開できるかを示す。
論文 参考訳(メタデータ) (2022-02-15T18:43:17Z) - Scaling Structured Inference with Randomization [64.18063627155128]
本稿では、構造化されたモデルを数万の潜在状態に拡張するためにランダム化された動的プログラミング(RDP)のファミリを提案する。
我々の手法は古典的DPベースの推論に広く適用できる。
また、自動微分とも互換性があり、ニューラルネットワークとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-12-07T11:26:41Z) - DiffPD: Differentiable Projective Dynamics with Contact [65.88720481593118]
DiffPDは、暗黙の時間積分を持つ効率的な微分可能なソフトボディシミュレータである。
我々はDiffPDの性能を評価し,様々な応用における標準ニュートン法と比較して4~19倍のスピードアップを観測した。
論文 参考訳(メタデータ) (2021-01-15T00:13:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。