論文の概要: Neural network representation of the probability density function of
diffusion processes
- arxiv url: http://arxiv.org/abs/2001.05437v2
- Date: Sun, 19 Apr 2020 20:10:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-11 06:59:02.202706
- Title: Neural network representation of the probability density function of
diffusion processes
- Title(参考訳): 拡散過程の確率密度関数のニューラルネットワークによる表現
- Authors: Wayne Isaac Tan Uy, Mircea Grigoriu
- Abstract要約: 物理インフォームドニューラルネットワークは、ランダム環境における力学系の状態を特徴付けるために開発された。
解析的,数値的に各微分方程式を解くことの利点と欠点を解析的に検討し,その状態を特徴づける。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Physics-informed neural networks are developed to characterize the state of
dynamical systems in a random environment. The neural network approximates the
probability density function (pdf) or the characteristic function (chf) of the
state of these systems which satisfy the Fokker-Planck equation or an
integro-differential equation under Gaussian and/or Poisson white noises. We
examine analytically and numerically the advantages and disadvantages of
solving each type of differential equation to characterize the state. It is
also demonstrated how prior information of the dynamical system can be
exploited to design and simplify the neural network architecture. Numerical
examples show that: 1) the neural network solution can approximate the target
solution even for partial integro-differential equations and system of PDEs
describing the time evolution of the pdf/chf, 2) solving either the
Fokker-Planck equation or the chf differential equation using neural networks
yields similar pdfs of the state, and 3) the solution to these differential
equations can be used to study the behavior of the state for different types of
random forcings.
- Abstract(参考訳): 物理インフォームドニューラルネットワークは、ランダム環境における力学系の状態を特徴付けるために開発された。
ニューラルネットワークは、フォッカー・プランク方程式を満たす系の確率密度関数(pdf)または特性関数(chf)を、ガウスホワイトノイズおよび/またはポアソンホワイトノイズの下で積分微分方程式に近似する。
解析的,数値的に各微分方程式を解くことの利点と欠点を解析的に検討し,その状態を特徴づける。
また、ニューラルネットワークアーキテクチャの設計と単純化のために、動的システムの事前情報をいかに活用できるかを示す。
数値的な例では
1) 偏積分微分方程式や pdf/chf の時間発展を記述する pdes の系においても, ニューラルネットワーク解は対象解を近似することができる。
2)fokker-planck方程式あるいはchf微分方程式をニューラルネットワークを用いて解くと、状態の類似のpdfが得られる。
3) この微分方程式の解は、異なるタイプのランダム強制に対する状態の挙動を研究するのに使うことができる。
関連論文リスト
- Diffusion models as probabilistic neural operators for recovering unobserved states of dynamical systems [49.2319247825857]
拡散に基づく生成モデルは、ニューラル演算子に好適な多くの特性を示す。
本稿では,複数のタスクに適応可能な単一モデルを,トレーニング中のタスク間で交互に学習することを提案する。
論文 参考訳(メタデータ) (2024-05-11T21:23:55Z) - A Constructive Approach to Function Realization by Neural Stochastic
Differential Equations [8.04975023021212]
システム力学における構造的制約を導入し、そのようなシステムで実現可能な関数のクラスを特徴付ける。
これらのシステムは、ニューラル微分方程式(ニューラルSDE)、決定論的力学系、読み出しマップのカスケード相互接続として実装される。
論文 参考訳(メタデータ) (2023-07-01T03:44:46Z) - Neuro-symbolic partial differential equation solver [0.0]
本稿では,科学計算における数値離散化からメッシュフリーなニューロシンボリック偏微分方程式解法を開発するための戦略を提案する。
この戦略は、解関数と微分演算子のモデルのニューラルネットワークサロゲートモデルを効率的に訓練するために使用できるという点でユニークなものである。
論文 参考訳(メタデータ) (2022-10-25T22:56:43Z) - Integral Transforms in a Physics-Informed (Quantum) Neural Network
setting: Applications & Use-Cases [1.7403133838762446]
工学や科学における多くの計算問題において、関数やモデルの微分は不可欠であるが、積分も必要である。
本研究では,物理インフォームドニューラルネットワークのパラダイムを,自動統合で拡張することを提案する。
論文 参考訳(メタデータ) (2022-06-28T17:51:32Z) - Neural Laplace: Learning diverse classes of differential equations in
the Laplace domain [86.52703093858631]
本稿では,これらすべてを含む多種多様な微分方程式(DE)を学習するための統一的な枠組みを提案する。
時間領域の力学をモデル化する代わりに、ラプラス領域でモデル化する。
The experiment, Neural Laplace shows excellent performance in modelling and extrapolating the trajectories of various class of DEs。
論文 参考訳(メタデータ) (2022-06-10T02:14:59Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - Conditional physics informed neural networks [85.48030573849712]
固有値問題のクラス解を推定するための条件付きPINN(物理情報ニューラルネットワーク)を紹介します。
一つのディープニューラルネットワークが、問題全体に対する偏微分方程式の解を学習できることが示される。
論文 参考訳(メタデータ) (2021-04-06T18:29:14Z) - Partial Differential Equations is All You Need for Generating Neural Architectures -- A Theory for Physical Artificial Intelligence Systems [40.20472268839781]
我々は、統計物理学における反応拡散方程式、量子力学におけるシュル・オーディンガー方程式、同軸光学におけるヘルムホルツ方程式を一般化する。
数値解を求めるためにNPDEを離散化するために有限差分法を用いる。
多層パーセプトロン、畳み込みニューラルネットワーク、リカレントニューラルネットワークなど、ディープニューラルネットワークアーキテクチャの基本構築ブロックが生成される。
論文 参考訳(メタデータ) (2021-03-10T00:05:46Z) - Autonomous learning of nonlocal stochastic neuron dynamics [0.0]
神経力学は、外部に課されたまたは内部的に生成されたランダム励起/ノイズによって駆動され、しばしばランダムまたは通常の微分方程式の系によって記述される。
刺激とニューロンの様々な内部状態の間の相互情報のような情報理論量を計算するのに使うことができる。
本研究では, 局所的な非局所的大微分率閉包法と, スパース回帰に依拠して関連する特徴を学習するデータドディ閉包法という2つの手法を提案する。
論文 参考訳(メタデータ) (2020-11-22T06:47:18Z) - Combining Differentiable PDE Solvers and Graph Neural Networks for Fluid
Flow Prediction [79.81193813215872]
我々は,従来のグラフ畳み込みネットワークと,ネットワーク内部に組込み可能な流体力学シミュレータを組み合わせたハイブリッド(グラフ)ニューラルネットワークを開発した。
ニューラルネットワークのCFD予測の大幅な高速化により,新たな状況に十分対応できることが示される。
論文 参考訳(メタデータ) (2020-07-08T21:23:19Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。