論文の概要: A Derivative-Free Method for Solving Elliptic Partial Differential
Equations with Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2001.06145v1
- Date: Fri, 17 Jan 2020 03:29:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-10 10:09:33.467482
- Title: A Derivative-Free Method for Solving Elliptic Partial Differential
Equations with Deep Neural Networks
- Title(参考訳): ディープニューラルネットワークを用いた楕円偏微分方程式の導出自由解法
- Authors: Jihun Han, Mihai Nica, Adam R Stinchcombe
- Abstract要約: 楕円型偏微分方程式のクラスを解くためのディープニューラルネットワークに基づく手法を提案する。
我々は、PDEの確率的表現の指導の下で訓練されたディープニューラルネットワークを用いて、PDEの解を近似する。
ブラウンのウォーカーがドメインを探索するにつれ、ディープニューラルネットワークは強化学習の形式で反復的に訓練される。
- 参考スコア(独自算出の注目度): 2.578242050187029
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a deep neural network based method for solving a class of
elliptic partial differential equations. We approximate the solution of the PDE
with a deep neural network which is trained under the guidance of a
probabilistic representation of the PDE in the spirit of the Feynman-Kac
formula. The solution is given by an expectation of a martingale process driven
by a Brownian motion. As Brownian walkers explore the domain, the deep neural
network is iteratively trained using a form of reinforcement learning. Our
method is a 'Derivative-Free Loss Method' since it does not require the
explicit calculation of the derivatives of the neural network with respect to
the input neurons in order to compute the training loss. The advantages of our
method are showcased in a series of test problems: a corner singularity
problem, an interface problem, and an application to a chemotaxis population
model.
- Abstract(参考訳): 楕円型偏微分方程式のクラスを解くためのディープニューラルネットワークに基づく手法を提案する。
フェインマン・カックの公式の精神におけるPDEの確率的表現の指導の下で訓練されたディープニューラルネットワークを用いてPDEの解を近似する。
この解は、ブラウン運動によって駆動されるマルティンゲール過程の期待によって与えられる。
brownian walkersがドメインを探索するにつれて、ディープニューラルネットワークは強化学習の形式で反復的にトレーニングされる。
本手法は,学習損失を計算するために,入力ニューロンに対するニューラルネットワークの導関数の明示的な計算を必要としないため,「微分自由損失法」である。
本手法の利点は, コーナー特異性問題, インターフェース問題, および遊走性集団モデルへの応用など, 一連のテスト問題で示される。
関連論文リスト
- Global Convergence of Deep Galerkin and PINNs Methods for Solving
Partial Differential Equations [0.0]
ニューラルネットワークを用いて解を近似することにより、高次元PDEを解くための様々なディープラーニング手法が開発されている。
我々はPDEの解法であるDeep Galerkin MethodDGM(ディープ・ガレルキン・メソッドDGM)の解法として広く使われているディープラーニングアルゴリズムの1つである。
論文 参考訳(メタデータ) (2023-05-10T09:20:11Z) - Efficient physics-informed neural networks using hash encoding [0.0]
物理インフォームドニューラルネットワーク(PINN)は科学計算において多くの注目を集めている。
トレーニング効率を向上させるために,マルチレゾリューションハッシュ符号化をPINNに組み込むことを提案する。
提案手法は,バーガーズ方程式,ヘルムホルツ方程式,ナビエ・ストークス方程式の3つの問題について検証した。
論文 参考訳(メタデータ) (2023-02-26T20:00:23Z) - Physics-informed Neural Networks approach to solve the Blasius function [0.0]
本稿では,ブラシウス関数の解法として物理インフォームドニューラルネットワーク(PINN)を提案する。
本手法は, 数値的, 従来手法と同等の結果が得られた。
論文 参考訳(メタデータ) (2022-12-31T03:14:42Z) - Neural Basis Functions for Accelerating Solutions to High Mach Euler
Equations [63.8376359764052]
ニューラルネットワークを用いた偏微分方程式(PDE)の解法を提案する。
ニューラルネットワークの集合を縮小順序 Proper Orthogonal Decomposition (POD) に回帰する。
これらのネットワークは、所定のPDEのパラメータを取り込み、PDEに還元順序近似を計算する分岐ネットワークと組み合わせて使用される。
論文 参考訳(メタデータ) (2022-08-02T18:27:13Z) - Unsupervised Legendre-Galerkin Neural Network for Stiff Partial
Differential Equations [9.659504024299896]
本稿では,Regendre-Galerkinニューラルネットワークに基づく教師なし機械学習アルゴリズムを提案する。
提案したニューラルネットワークは、境界層挙動を有する特異摂動PDEと同様に、一般的な1Dおよび2DPDEに適用される。
論文 参考訳(メタデータ) (2022-07-21T00:47:47Z) - NeuralEF: Deconstructing Kernels by Deep Neural Networks [47.54733625351363]
従来のNystr"om式に基づく非パラメトリックなソリューションはスケーラビリティの問題に悩まされる。
最近の研究はパラメトリックなアプローチ、すなわち固有関数を近似するためにニューラルネットワークを訓練している。
教師なしおよび教師なしの学習問題の空間に一般化する新たな目的関数を用いて,これらの問題を解くことができることを示す。
論文 参考訳(メタデータ) (2022-04-30T05:31:07Z) - Learning Physics-Informed Neural Networks without Stacked
Back-propagation [82.26566759276105]
我々は,物理インフォームドニューラルネットワークのトレーニングを著しく高速化する新しい手法を開発した。
特に、ガウス滑らか化モデルによりPDE解をパラメータ化し、スタインの恒等性から導かれる2階微分がバックプロパゲーションなしで効率的に計算可能であることを示す。
実験の結果,提案手法は通常のPINN訓練に比べて2桁の精度で競合誤差を実現できることがわかった。
論文 参考訳(メタデータ) (2022-02-18T18:07:54Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Conditional physics informed neural networks [85.48030573849712]
固有値問題のクラス解を推定するための条件付きPINN(物理情報ニューラルネットワーク)を紹介します。
一つのディープニューラルネットワークが、問題全体に対する偏微分方程式の解を学習できることが示される。
論文 参考訳(メタデータ) (2021-04-06T18:29:14Z) - Unsupervised Learning of Solutions to Differential Equations with
Generative Adversarial Networks [1.1470070927586016]
本研究では,教師なしニューラルネットワークを用いた微分方程式の解法を開発した。
差分方程式GAN (DEQGAN) と呼ばれる手法は, 平均二乗誤差を桁違いに低減できることを示す。
論文 参考訳(メタデータ) (2020-07-21T23:36:36Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。