論文の概要: WoSNN: Stochastic Solver for PDEs with Machine Learning
- arxiv url: http://arxiv.org/abs/2509.00204v1
- Date: Fri, 29 Aug 2025 19:28:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.127125
- Title: WoSNN: Stochastic Solver for PDEs with Machine Learning
- Title(参考訳): WoSNN: マシンラーニングによるPDEの確率的解法
- Authors: Silei Song, Arash Fahim, Michael Mascagni,
- Abstract要約: 我々は楕円偏微分方程式を解く新しい解法WoS-NNを開発した。
WoS-NNは、メッシュレスで不規則な領域に対して堅牢であるなど、オリジナルのWoS法から優れた特性を継承している。
典型的な実験結果から,提案手法が精度の高いフィールド推定を行うことを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Solving elliptic partial differential equations (PDEs) is a fundamental step in various scientific and engineering studies. As a classic stochastic solver, the Walk-on-Spheres (WoS) method is a well-established and efficient algorithm that provides accurate local estimates for PDEs. In this paper, by integrating machine learning techniques with WoS and space discretization approaches, we develop a novel stochastic solver, WoS-NN. This new method solves elliptic problems with Dirichlet boundary conditions, facilitating precise and rapid global solutions and gradient approximations. The method inherits excellent characteristics from the original WoS method, such as being meshless and robust to irregular regions. By integrating neural networks, WoS-NN also gives instant local predictions after training without re-sampling, which is especially suitable for intense requests on a static region. A typical experimental result demonstrates that the proposed WoS-NN method provides accurate field estimations, reducing errors by around $75\%$ while using only $8\%$ of path samples compared to the conventional WoS method, which saves abundant computational time and resource consumption.
- Abstract(参考訳): 楕円偏微分方程式 (PDE) の解法は、様々な科学・工学研究における基本的なステップである。
古典的確率解法として、ウォーク・オン・スフェース(WoS)法は、PDEの正確な局所推定値を提供する、よく確立された効率的なアルゴリズムである。
本稿では,機械学習技術とWoSと空間離散化手法を組み合わせることにより,新しい確率分解器WoS-NNを開発した。
本手法はディリクレ境界条件による楕円問題の解法であり, 高精度で迅速な大域的解法と勾配近似を容易にする。
この方法は、メッシュレスで不規則な領域に対して堅牢であるなど、元のWoS法から優れた特性を継承する。
ニューラルネットワークを統合することで、WoS-NNはトレーニング後の即時ローカル予測を再サンプリングせずに提供する。
典型的な実験結果から,提案手法は精度の高いフィールド推定が可能であり,従来のWoS法と比較して,経路サンプルの8\%しか使用せず,誤差を約75\%削減できることがわかった。
関連論文リスト
- FBSJNN: A Theoretically Interpretable and Efficiently Deep Learning method for Solving Partial Integro-Differential Equations [0.0]
本稿では, 深層学習に基づく手法を用いて, 部分積分微分方程式(PIDE)のクラスを解くための新しい枠組みを提案する。
この手法はFBNN(Forward-Backward Jump Neural Network)と呼ばれ、理論的に解釈可能であり、数値的に有効である。
数値実験により,FBSJNN法は10~3ドル程度の相対誤差で数値解が得られることが示された。
論文 参考訳(メタデータ) (2024-12-15T01:37:48Z) - Solving Poisson Equations using Neural Walk-on-Spheres [80.1675792181381]
高次元ポアソン方程式の効率的な解法としてニューラルウォーク・オン・スフェース(NWoS)を提案する。
我々は,NWoSの精度,速度,計算コストにおける優位性を実証した。
論文 参考訳(メタデータ) (2024-06-05T17:59:22Z) - Solving partial differential equations with sampled neural networks [1.8590821261905535]
偏微分方程式(PDE)に対する解の近似は計算科学や工学において重要な問題である。
データに依存しない確率分布から、アンザッツネットワークの隠れた重みとバイアスをサンプリングすることで、両課題を進展させる方法について論じる。
論文 参考訳(メタデータ) (2024-05-31T14:24:39Z) - Noise in the reverse process improves the approximation capabilities of
diffusion models [27.65800389807353]
生成モデリングにおける最先端技術であるスコアベース生成モデリング(SGM)では、リバースプロセスは決定論的手法よりも優れた性能を発揮することが知られている。
本稿では,ニューラル常微分方程式 (ODE) とニューラルディメンション方程式 (SDE) を逆過程として比較し,この現象の核となる。
我々は、Fokker-Planck方程式の軌跡を近似するニューラルSDEの能力を解析し、ニューラルティの利点を明らかにする。
論文 参考訳(メタデータ) (2023-12-13T02:39:10Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Variational Linearized Laplace Approximation for Bayesian Deep Learning [11.22428369342346]
変分スパースガウス過程(GP)を用いた線形ラプラス近似(LLA)の近似法を提案する。
本手法はGPの2つのRKHSの定式化に基づいており、予測平均として元のDNNの出力を保持する。
効率のよい最適化が可能で、結果としてトレーニングデータセットのサイズのサブ線形トレーニング時間が短縮される。
論文 参考訳(メタデータ) (2023-02-24T10:32:30Z) - Monte Carlo Neural PDE Solver for Learning PDEs via Probabilistic Representation [59.45669299295436]
教師なしニューラルソルバのトレーニングのためのモンテカルロPDEソルバを提案する。
我々は、マクロ現象をランダム粒子のアンサンブルとみなすPDEの確率的表現を用いる。
対流拡散, アレン・カーン, ナヴィエ・ストークス方程式に関する実験により, 精度と効率が著しく向上した。
論文 参考訳(メタデータ) (2023-02-10T08:05:19Z) - JAX-DIPS: Neural bootstrapping of finite discretization methods and
application to elliptic problems with discontinuities [0.0]
この戦略は、偏微分方程式のニューラルネットワークサロゲートモデルを効率的に訓練するために使用できる。
提案したニューラルブートストラップ法(以下 NBM と呼ぶ)は,PDE システムの有限離散化残基の評価に基づいている。
NBMは他のPINNタイプのフレームワークとメモリとトレーニングの速度で競合することを示す。
論文 参考訳(メタデータ) (2022-10-25T20:13:26Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - An application of the splitting-up method for the computation of a
neural network representation for the solution for the filtering equations [68.8204255655161]
フィルタ方程式は、数値天気予報、金融、工学など、多くの現実の応用において中心的な役割を果たす。
フィルタリング方程式の解を近似する古典的なアプローチの1つは、分割法と呼ばれるPDEにインスパイアされた方法を使うことである。
我々はこの手法をニューラルネットワーク表現と組み合わせて、信号プロセスの非正規化条件分布の近似を生成する。
論文 参考訳(メタデータ) (2022-01-10T11:01:36Z) - Local AdaGrad-Type Algorithm for Stochastic Convex-Concave Minimax
Problems [80.46370778277186]
大規模凸凹型ミニマックス問題は、ゲーム理論、堅牢なトレーニング、生成的敵ネットワークのトレーニングなど、多くの応用で発生する。
通信効率のよい分散外グレードアルゴリズムであるLocalAdaSientを開発した。
サーバモデル。
等質な環境と異質な環境の両方において,その有効性を実証する。
論文 参考訳(メタデータ) (2021-06-18T09:42:05Z) - A hybrid MGA-MSGD ANN training approach for approximate solution of
linear elliptic PDEs [0.0]
MGA-MSGD(Modified Genetic-Multilevel Gradient Descent)トレーニングアルゴリズムを導入しました。
ANNによるPDEによって記述された3次元機械的問題の精度と効率を大幅に改善する。
論文 参考訳(メタデータ) (2020-12-18T10:59:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。