論文の概要: Neural Spectral Methods: Self-supervised learning in the spectral domain
- arxiv url: http://arxiv.org/abs/2312.05225v1
- Date: Fri, 8 Dec 2023 18:20:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-11 14:11:53.088994
- Title: Neural Spectral Methods: Self-supervised learning in the spectral domain
- Title(参考訳): 神経スペクトル法:スペクトル領域における自己教師あり学習
- Authors: Yiheng Du, Nithin Chalapathi, Aditi Krishnapriyan
- Abstract要約: パラメトリック部分方程式(PDE)の解法であるニューラルスペクトル法を提案する。
提案手法は,スペクトル係数間のマッピングとしてPDE解の学習に基底を用いる。
実験の結果,提案手法は,従来の機械学習手法よりも高速化と精度に優れていたことがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present Neural Spectral Methods, a technique to solve parametric Partial
Differential Equations (PDEs), grounded in classical spectral methods. Our
method uses orthogonal bases to learn PDE solutions as mappings between
spectral coefficients. In contrast to current machine learning approaches which
enforce PDE constraints by minimizing the numerical quadrature of the residuals
in the spatiotemporal domain, we leverage Parseval's identity and introduce a
new training strategy through a \textit{spectral loss}. Our spectral loss
enables more efficient differentiation through the neural network, and
substantially reduces training complexity. At inference time, the computational
cost of our method remains constant, regardless of the spatiotemporal
resolution of the domain. Our experimental results demonstrate that our method
significantly outperforms previous machine learning approaches in terms of
speed and accuracy by one to two orders of magnitude on multiple different
problems. When compared to numerical solvers of the same accuracy, our method
demonstrates a $10\times$ increase in performance speed.
- Abstract(参考訳): 本稿では,古典スペクトル法に基づくパラメトリック偏微分方程式(PDE)の解法であるニューラルスペクトル法を提案する。
本手法は直交基底を用いてスペクトル係数間の写像としてPDE解を学習する。
時空間領域の残差の数値的2乗を最小化することでPDE制約を強制する現在の機械学習アプローチとは対照的に,Parsevalのアイデンティティを活用し,‘textit{spectral loss} を通じて新たなトレーニング戦略を導入する。
私たちのスペクトル損失は、ニューラルネットワークによるより効率的な分化を可能にし、トレーニングの複雑さを大幅に削減します。
推定時には, 領域の時空間分解能によらず, 計算コストは一定のままである。
実験の結果,提案手法は,複数の異なる問題に対して1~2桁の精度で,従来の機械学習手法よりも大幅に優れていた。
同じ精度の数値解法と比較して、本手法は性能速度が10倍に向上することを示す。
関連論文リスト
- Solving Poisson Equations using Neural Walk-on-Spheres [80.1675792181381]
高次元ポアソン方程式の効率的な解法としてニューラルウォーク・オン・スフェース(NWoS)を提案する。
我々は,NWoSの精度,速度,計算コストにおける優位性を実証した。
論文 参考訳(メタデータ) (2024-06-05T17:59:22Z) - Adaptive Federated Learning Over the Air [108.62635460744109]
オーバー・ザ・エア・モデル・トレーニングの枠組みの中で,適応勾配法,特にAdaGradとAdamの連合バージョンを提案する。
解析の結果,AdaGrad に基づくトレーニングアルゴリズムは $mathcalO(ln(T) / T 1 - frac1alpha の速度で定常点に収束することがわかった。
論文 参考訳(メタデータ) (2024-03-11T09:10:37Z) - Spectral operator learning for parametric PDEs without data reliance [6.7083321695379885]
本研究では,データ活用を必要とせずにパラメトリック偏微分方程式(PDE)を解く演算子に基づく新しい手法を提案する。
提案手法は,既存の科学的機械学習技術と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2023-10-03T12:37:15Z) - A Spectral Approach for Learning Spatiotemporal Neural Differential
Equations [0.0]
空間のスペクトル展開を用いて非有界微分方程式を学習するニューラル-ODE法を提案する。
PDEと積分微分方程式の両方を学習するためのスペクトルフレームワークを開発することにより、機械学習手法を拡張してDESやより大規模な問題に適用する。
論文 参考訳(メタデータ) (2023-09-28T03:22:49Z) - Temporal Difference Learning for High-Dimensional PIDEs with Jumps [12.734467096363762]
我々は,一連のLeviプロセスを導入し,それに対応する強化学習モデルを構築した。
プロセス全体をシミュレートするために、方程式の解と非局所項を表現するためにディープニューラルネットワークを使用します。
この手法の相対誤差は100次元実験でO(10-3)、一次元純粋ジャンプ問題でO(10-4)に達する。
論文 参考訳(メタデータ) (2023-07-06T04:27:16Z) - Locally Regularized Neural Differential Equations: Some Black Boxes Were
Meant to Remain Closed! [3.222802562733787]
ニューラル微分方程式のような暗黙の層深層学習技術は重要なモデリングフレームワークとなっている。
パフォーマンスとトレーニング時間をトレードオフする2つのサンプリング戦略を開発します。
本手法は,関数評価を0.556-0.733xに削減し,予測を1.3-2xに高速化する。
論文 参考訳(メタデータ) (2023-03-03T23:31:15Z) - Semi-supervised Learning of Partial Differential Operators and Dynamical
Flows [68.77595310155365]
本稿では,超ネットワーク解法とフーリエニューラル演算子アーキテクチャを組み合わせた新しい手法を提案する。
本手法は, 1次元, 2次元, 3次元の非線形流体を含む様々な時間発展PDEを用いて実験を行った。
その結果、新しい手法は、監督点の時点における学習精度を向上し、任意の中間時間にその解を補間できることを示した。
論文 参考訳(メタデータ) (2022-07-28T19:59:14Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - DiffPD: Differentiable Projective Dynamics with Contact [65.88720481593118]
DiffPDは、暗黙の時間積分を持つ効率的な微分可能なソフトボディシミュレータである。
我々はDiffPDの性能を評価し,様々な応用における標準ニュートン法と比較して4~19倍のスピードアップを観測した。
論文 参考訳(メタデータ) (2021-01-15T00:13:33Z) - On Learning Rates and Schr\"odinger Operators [105.32118775014015]
本稿では,学習率の影響に関する一般的な理論的分析を行う。
学習速度は、幅広い非ニューラルクラス関数に対してゼロとなる傾向にある。
論文 参考訳(メタデータ) (2020-04-15T09:52:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。