論文の概要: Soliton profiles: Classical Numerical Schemes vs. Neural Network - Based Solvers
- arxiv url: http://arxiv.org/abs/2512.24634v1
- Date: Wed, 31 Dec 2025 05:13:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.576967
- Title: Soliton profiles: Classical Numerical Schemes vs. Neural Network - Based Solvers
- Title(参考訳): ソリトンプロファイル:古典的数値スキーム対ニューラルネットワーク-に基づく解法
- Authors: Chandler Haight, Svetlana Roudenko, Zhongming Wang,
- Abstract要約: 本稿では,古典的数値解法とニューラルネットワークを用いた手法の比較研究を行う。
我々は,古典的手法が単一インスタンス問題に対して高次精度と高い計算効率を維持していることを確認した。
しかし、シングルインスタンス計算では、演算子学習法の精度は古典的手法やPINNよりも低いままである。
- 参考スコア(独自算出の注目度): 0.24999074238880484
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a comparative study of classical numerical solvers, such as Petviashvili's method or finite difference with Newton iterations, and neural network-based methods for computing ground states or profiles of solitary-wave solutions to the one-dimensional dispersive PDEs that include the nonlinear Schrödinger, the nonlinear Klein-Gordon and the generalized KdV equations. We confirm that classical approaches retain high-order accuracy and strong computational efficiency for single-instance problems in the one-dimensional setting. Physics-informed neural networks (PINNs) are also able to reproduce qualitative solutions but are generally less accurate and less efficient in low dimensions than classical solvers due to expensive training and slow convergence. We also investigate the operator-learning methods, which, although computationally intensive during training, can be reused across many parameter instances, providing rapid inference after pretraining, making them attractive for applications involving repeated simulations or real-time predictions. For single-instance computations, however, the accuracy of operator-learning methods remains lower than that of classical methods or PINNs, in general.
- Abstract(参考訳): 本稿では, 非線形シュレーディンガー, 非線形クライン・ゴルドン, 一般化KdV方程式を含む一次元分散PDEに対する基底状態や孤立波解のプロファイルをニューラルネットワークで計算するペトヴィアシュヴィリ法やニュートン反復との有限差分などの古典的数値解法の比較研究について述べる。
古典的手法は1次元条件下での単一インスタンス問題に対して高次精度と高い計算効率を保っていることを確認した。
物理インフォームドニューラルネットワーク(PINN)も定性的解を再現できるが、一般的には高価なトレーニングと遅い収束のために古典的解法よりも精度が低く、低次元では効率が低い。
また,演算子学習手法についても検討し,多くのパラメーターインスタンスにまたがって計算集約的な再利用が可能であり,事前学習後に高速な推論が可能であり,繰り返しシミュレーションやリアルタイム予測を含むアプリケーションにとって魅力的であることを示す。
しかし、シングルインスタンス計算では、演算子学習法の精度は古典的手法やPINNよりも低いままである。
関連論文リスト
- NOWS: Neural Operator Warm Starts for Accelerating Iterative Solvers [1.8117099374299037]
偏微分方程式 (Partial differential equation, PDE) は、物理科学や工学における定量的記述の基盤となっている。
データ駆動サロゲートは驚くほど高速だが、トレーニングディストリビューションの外で適用されると、しばしば信頼性が低下する。
本稿では、学習した解演算子を利用して古典的反復解法を高速化するハイブリッド戦略であるNeural Operator Warm Starts (NOWS)を紹介する。
論文 参考訳(メタデータ) (2025-11-04T11:12:27Z) - Revisiting Orbital Minimization Method for Neural Operator Decomposition [19.86950069790711]
計算化学における固有値問題の解法として1990年代に提案されたインフォロビタル法(英語版)(OMM)と呼ばれる古典的最適化フレームワークを再考する。
我々は、ニューラルネットワークをトレーニングして正の半定値演算子を分解し、その実用的な利点を様々なベンチマークタスクで示すために、このフレームワークを適用した。
論文 参考訳(メタデータ) (2025-10-24T18:26:18Z) - Solving Poisson Equations using Neural Walk-on-Spheres [80.1675792181381]
高次元ポアソン方程式の効率的な解法としてニューラルウォーク・オン・スフェース(NWoS)を提案する。
我々は,NWoSの精度,速度,計算コストにおける優位性を実証した。
論文 参考訳(メタデータ) (2024-06-05T17:59:22Z) - Deep learning-based quantum algorithms for solving nonlinear partial
differential equations [3.312385039704987]
偏微分方程式は自然科学や関連する分野によく現れる。
本研究では,高次元非線形偏微分方程式を解くための古典的深層学習法の拡張の可能性を探る。
論文 参考訳(メタデータ) (2023-05-03T10:17:51Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - Characterizing possible failure modes in physics-informed neural
networks [55.83255669840384]
科学機械学習における最近の研究は、いわゆる物理情報ニューラルネットワーク(PINN)モデルを開発した。
既存のPINN方法論は比較的自明な問題に対して優れたモデルを学ぶことができるが、単純なPDEであっても、関連する物理現象を学習するのに失敗する可能性があることを実証する。
これらの障害モードは,NNアーキテクチャの表現力の欠如によるものではなく,PINNのセットアップによって損失状況の最適化が極めて困難であることを示す。
論文 参考訳(メタデータ) (2021-09-02T16:06:45Z) - Large-scale Neural Solvers for Partial Differential Equations [48.7576911714538]
偏微分方程式 (PDE) を解くことは、多くのプロセスがPDEの観点でモデル化できるため、科学の多くの分野において不可欠である。
最近の数値解法では、基礎となる方程式を手動で離散化するだけでなく、分散コンピューティングのための高度で調整されたコードも必要である。
偏微分方程式, 物理インフォームドニューラルネットワーク(PINN)に対する連続メッシュフリーニューラルネットワークの適用性について検討する。
本稿では,解析解に関するGatedPINNの精度と,スペクトル解法などの最先端数値解法について論じる。
論文 参考訳(メタデータ) (2020-09-08T13:26:51Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。