論文の概要: Autoregressive Renaissance in Neural PDE Solvers
- arxiv url: http://arxiv.org/abs/2310.19763v1
- Date: Mon, 30 Oct 2023 17:35:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-01 18:53:31.445064
- Title: Autoregressive Renaissance in Neural PDE Solvers
- Title(参考訳): ニューラルPDEにおける自己回帰ルネサンス
- Authors: Yolanne Yi Ran Lee
- Abstract要約: ICLR 2022で発表された論文では、自己回帰モデルを再検討し、メッセージパッシンググラフニューラルネットワークを設計している。
このブログ記事は、自動回帰モデルにおける不安定性の一般的な問題に対処するために使用される戦略について、この研究の重要な貢献について詳しく説明している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent developments in the field of neural partial differential equation
(PDE) solvers have placed a strong emphasis on neural operators. However, the
paper "Message Passing Neural PDE Solver" by Brandstetter et al. published in
ICLR 2022 revisits autoregressive models and designs a message passing graph
neural network that is comparable with or outperforms both the state-of-the-art
Fourier Neural Operator and traditional classical PDE solvers in its
generalization capabilities and performance. This blog post delves into the key
contributions of this work, exploring the strategies used to address the common
problem of instability in autoregressive models and the design choices of the
message passing graph neural network architecture.
- Abstract(参考訳): ニューラル偏微分方程式(PDE)の分野における最近の発展は、ニューラル作用素に強く重点を置いている。
しかし、ICLR 2022で発表されたBrandstetterらによる論文"Message Passing Neural PDE Solver"では、自己回帰モデルを再検討し、最先端のフーリエニューラル演算子と従来のPDEソルバの両方に匹敵する、あるいは優れたメッセージパッシンググラフニューラルネットワークを、その一般化能力と性能で設計している。
このブログ記事は、自動回帰モデルにおける不安定性の一般的な問題と、メッセージパッシンググラフニューラルネットワークアーキテクチャの設計選択に対処するために使用される戦略について詳しく説明している。
関連論文リスト
- First-order PDES for Graph Neural Networks: Advection And Burgers Equation Models [1.4174475093445238]
本稿では,2つの一階偏微分方程式(PDE)を組み込んだ新しいグラフニューラルネットワークモデルを提案する。
実験結果から,高次PDEモデルと同等の結果を得るための新しいPDEモデルの能力を強調し,最大64層までのオーバースムーシング問題を修正した。
結果は,GNNの適応性と汎用性を強調し,従来の手法と同等の結果が得られることを示す。
論文 参考訳(メタデータ) (2024-04-03T21:47:02Z) - Neural Fractional Differential Equations [2.812395851874055]
FDE(Fractional Differential Equations)は、科学や工学において複雑なシステムをモデル化するための重要なツールである。
我々は、FDEをデータのダイナミックスに調整する新しいディープニューラルネットワークアーキテクチャであるNeural FDEを提案する。
論文 参考訳(メタデータ) (2024-03-05T07:45:29Z) - Coupling Graph Neural Networks with Fractional Order Continuous
Dynamics: A Robustness Study [24.950680319986486]
グラフニューラル分数次微分方程式(FDE)モデルのロバスト性について厳密に検討する。
このフレームワークは、時間差分カプトー微分を実装することで、従来のグラフニューラル(整数階)常微分方程式(ODE)モデルを超えて拡張する。
論文 参考訳(メタデータ) (2024-01-09T02:56:52Z) - Deep Equilibrium Based Neural Operators for Steady-State PDEs [100.88355782126098]
定常PDEに対する重み付けニューラルネットワークアーキテクチャの利点について検討する。
定常PDEの解を直接解くFNOアーキテクチャの深い平衡変種であるFNO-DEQを提案する。
論文 参考訳(メタデータ) (2023-11-30T22:34:57Z) - GNRK: Graph Neural Runge-Kutta method for solving partial differential
equations [0.0]
本研究はグラフニューラルランゲ・クッタ(GNRK)と呼ばれる新しいアプローチを紹介する。
GNRKはグラフニューラルネットワークモジュールを古典的解法にインスパイアされた再帰構造に統合する。
これは、初期条件やPDE係数に関係なく、一般的なPDEに対処する能力を示す。
論文 参考訳(メタデータ) (2023-10-01T08:52:46Z) - A Stable and Scalable Method for Solving Initial Value PDEs with Neural
Networks [52.5899851000193]
我々は,ネットワークの条件が悪くなるのを防止し,パラメータ数で時間線形に動作するODEベースのIPPソルバを開発した。
このアプローチに基づく現在の手法は2つの重要な問題に悩まされていることを示す。
まず、ODEに従うと、問題の条件付けにおいて制御不能な成長が生じ、最終的に許容できないほど大きな数値誤差が生じる。
論文 参考訳(メタデータ) (2023-04-28T17:28:18Z) - On the Robustness of Graph Neural Diffusion to Topology Perturbations [30.284359808863588]
グラフニューラルPDEは,他のGNNと比較して本質的にトポロジ的摂動に対して頑健であることを示す。
本稿では,新しい堅牢なGNNを定義可能なグラフニューラルPDEフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-16T07:19:35Z) - Neural Basis Functions for Accelerating Solutions to High Mach Euler
Equations [63.8376359764052]
ニューラルネットワークを用いた偏微分方程式(PDE)の解法を提案する。
ニューラルネットワークの集合を縮小順序 Proper Orthogonal Decomposition (POD) に回帰する。
これらのネットワークは、所定のPDEのパラメータを取り込み、PDEに還元順序近似を計算する分岐ネットワークと組み合わせて使用される。
論文 参考訳(メタデータ) (2022-08-02T18:27:13Z) - Neural Operator with Regularity Structure for Modeling Dynamics Driven
by SPDEs [70.51212431290611]
偏微分方程式 (SPDE) は、大気科学や物理学を含む多くの分野において、力学をモデル化するための重要なツールである。
本研究では,SPDEによって駆動されるダイナミクスをモデル化するための特徴ベクトルを組み込んだニューラル演算子(NORS)を提案する。
動的Phi41モデルと2d Navier-Stokes方程式を含む様々なSPDE実験を行った。
論文 参考訳(メタデータ) (2022-04-13T08:53:41Z) - Learning Physics-Informed Neural Networks without Stacked
Back-propagation [82.26566759276105]
我々は,物理インフォームドニューラルネットワークのトレーニングを著しく高速化する新しい手法を開発した。
特に、ガウス滑らか化モデルによりPDE解をパラメータ化し、スタインの恒等性から導かれる2階微分がバックプロパゲーションなしで効率的に計算可能であることを示す。
実験の結果,提案手法は通常のPINN訓練に比べて2桁の精度で競合誤差を実現できることがわかった。
論文 参考訳(メタデータ) (2022-02-18T18:07:54Z) - Stochasticity in Neural ODEs: An Empirical Study [68.8204255655161]
ニューラルネットワークの正規化(ドロップアウトなど)は、より高度な一般化を可能にするディープラーニングの広範な技術である。
トレーニング中のデータ拡張は、同じモデルの決定論的およびバージョンの両方のパフォーマンスを向上させることを示す。
しかし、データ拡張によって得られる改善により、経験的正規化の利得は完全に排除され、ニューラルODEとニューラルSDEの性能は無視される。
論文 参考訳(メタデータ) (2020-02-22T22:12:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。