論文の概要: A Derivative-Free Method for Solving Elliptic Partial Differential
Equations with Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2001.06145v1
- Date: Fri, 17 Jan 2020 03:29:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-10 10:09:33.467482
- Title: A Derivative-Free Method for Solving Elliptic Partial Differential
Equations with Deep Neural Networks
- Title(参考訳): ディープニューラルネットワークを用いた楕円偏微分方程式の導出自由解法
- Authors: Jihun Han, Mihai Nica, Adam R Stinchcombe
- Abstract要約: 楕円型偏微分方程式のクラスを解くためのディープニューラルネットワークに基づく手法を提案する。
我々は、PDEの確率的表現の指導の下で訓練されたディープニューラルネットワークを用いて、PDEの解を近似する。
ブラウンのウォーカーがドメインを探索するにつれ、ディープニューラルネットワークは強化学習の形式で反復的に訓練される。
- 参考スコア(独自算出の注目度): 2.578242050187029
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a deep neural network based method for solving a class of
elliptic partial differential equations. We approximate the solution of the PDE
with a deep neural network which is trained under the guidance of a
probabilistic representation of the PDE in the spirit of the Feynman-Kac
formula. The solution is given by an expectation of a martingale process driven
by a Brownian motion. As Brownian walkers explore the domain, the deep neural
network is iteratively trained using a form of reinforcement learning. Our
method is a 'Derivative-Free Loss Method' since it does not require the
explicit calculation of the derivatives of the neural network with respect to
the input neurons in order to compute the training loss. The advantages of our
method are showcased in a series of test problems: a corner singularity
problem, an interface problem, and an application to a chemotaxis population
model.
- Abstract(参考訳): 楕円型偏微分方程式のクラスを解くためのディープニューラルネットワークに基づく手法を提案する。
フェインマン・カックの公式の精神におけるPDEの確率的表現の指導の下で訓練されたディープニューラルネットワークを用いてPDEの解を近似する。
この解は、ブラウン運動によって駆動されるマルティンゲール過程の期待によって与えられる。
brownian walkersがドメインを探索するにつれて、ディープニューラルネットワークは強化学習の形式で反復的にトレーニングされる。
本手法は,学習損失を計算するために,入力ニューロンに対するニューラルネットワークの導関数の明示的な計算を必要としないため,「微分自由損失法」である。
本手法の利点は, コーナー特異性問題, インターフェース問題, および遊走性集団モデルへの応用など, 一連のテスト問題で示される。
関連論文リスト
- Chebyshev Spectral Neural Networks for Solving Partial Differential Equations [0.0]
この研究は、フィードフォワードニューラルネットワークモデルとエラーバックプロパゲーション原理を用いて、損失関数の計算に自動微分(AD)を利用する。
楕円偏微分方程式を用いて,CSNNモデルの数値効率と精度について検討し,よく知られた物理インフォームドニューラルネットワーク(PINN)法と比較した。
論文 参考訳(メタデータ) (2024-06-06T05:31:45Z) - Solving Poisson Equations using Neural Walk-on-Spheres [80.1675792181381]
高次元ポアソン方程式の効率的な解法としてニューラルウォーク・オン・スフェース(NWoS)を提案する。
我々は,NWoSの精度,速度,計算コストにおける優位性を実証した。
論文 参考訳(メタデータ) (2024-06-05T17:59:22Z) - Newton Informed Neural Operator for Computing Multiple Solutions of Nonlinear Partials Differential Equations [3.8916312075738273]
非線形性に対処するNewton Informed Neural Operatorを提案する。
提案手法は,古典的ニュートン法を組み合わせ,適切な問題に対処し,一つの学習過程において複数の解を効率的に学習する。
論文 参考訳(メタデータ) (2024-05-23T01:52:54Z) - Efficient physics-informed neural networks using hash encoding [0.0]
物理インフォームドニューラルネットワーク(PINN)は科学計算において多くの注目を集めている。
トレーニング効率を向上させるために,マルチレゾリューションハッシュ符号化をPINNに組み込むことを提案する。
提案手法は,バーガーズ方程式,ヘルムホルツ方程式,ナビエ・ストークス方程式の3つの問題について検証した。
論文 参考訳(メタデータ) (2023-02-26T20:00:23Z) - Physics-informed Neural Networks approach to solve the Blasius function [0.0]
本稿では,ブラシウス関数の解法として物理インフォームドニューラルネットワーク(PINN)を提案する。
本手法は, 数値的, 従来手法と同等の結果が得られた。
論文 参考訳(メタデータ) (2022-12-31T03:14:42Z) - Neural Basis Functions for Accelerating Solutions to High Mach Euler
Equations [63.8376359764052]
ニューラルネットワークを用いた偏微分方程式(PDE)の解法を提案する。
ニューラルネットワークの集合を縮小順序 Proper Orthogonal Decomposition (POD) に回帰する。
これらのネットワークは、所定のPDEのパラメータを取り込み、PDEに還元順序近似を計算する分岐ネットワークと組み合わせて使用される。
論文 参考訳(メタデータ) (2022-08-02T18:27:13Z) - Learning Physics-Informed Neural Networks without Stacked
Back-propagation [82.26566759276105]
我々は,物理インフォームドニューラルネットワークのトレーニングを著しく高速化する新しい手法を開発した。
特に、ガウス滑らか化モデルによりPDE解をパラメータ化し、スタインの恒等性から導かれる2階微分がバックプロパゲーションなしで効率的に計算可能であることを示す。
実験の結果,提案手法は通常のPINN訓練に比べて2桁の精度で競合誤差を実現できることがわかった。
論文 参考訳(メタデータ) (2022-02-18T18:07:54Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Conditional physics informed neural networks [85.48030573849712]
固有値問題のクラス解を推定するための条件付きPINN(物理情報ニューラルネットワーク)を紹介します。
一つのディープニューラルネットワークが、問題全体に対する偏微分方程式の解を学習できることが示される。
論文 参考訳(メタデータ) (2021-04-06T18:29:14Z) - Unsupervised Learning of Solutions to Differential Equations with
Generative Adversarial Networks [1.1470070927586016]
本研究では,教師なしニューラルネットワークを用いた微分方程式の解法を開発した。
差分方程式GAN (DEQGAN) と呼ばれる手法は, 平均二乗誤差を桁違いに低減できることを示す。
論文 参考訳(メタデータ) (2020-07-21T23:36:36Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。