論文の概要: Integral Transforms in a Physics-Informed (Quantum) Neural Network
setting: Applications & Use-Cases
- arxiv url: http://arxiv.org/abs/2206.14184v1
- Date: Tue, 28 Jun 2022 17:51:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-29 13:04:22.341986
- Title: Integral Transforms in a Physics-Informed (Quantum) Neural Network
setting: Applications & Use-Cases
- Title(参考訳): 物理インフォームド(量子)ニューラルネットワークにおける積分変換:応用と利用事例
- Authors: Niraj Kumar, Evan Philip, Vincent E. Elfving
- Abstract要約: 工学や科学における多くの計算問題において、関数やモデルの微分は不可欠であるが、積分も必要である。
本研究では,物理インフォームドニューラルネットワークのパラダイムを,自動統合で拡張することを提案する。
- 参考スコア(独自算出の注目度): 1.7403133838762446
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In many computational problems in engineering and science, function or model
differentiation is essential, but also integration is needed. An important
class of computational problems include so-called integro-differential
equations which include both integrals and derivatives of a function. In
another example, stochastic differential equations can be written in terms of a
partial differential equation of a probability density function of the
stochastic variable. To learn characteristics of the stochastic variable based
on the density function, specific integral transforms, namely moments, of the
density function need to be calculated. Recently, the machine learning paradigm
of Physics-Informed Neural Networks emerged with increasing popularity as a
method to solve differential equations by leveraging automatic differentiation.
In this work, we propose to augment the paradigm of Physics-Informed Neural
Networks with automatic integration in order to compute complex integral
transforms on trained solutions, and to solve integro-differential equations
where integrals are computed on-the-fly during training. Furthermore, we
showcase the techniques in various application settings, numerically simulating
quantum computer-based neural networks as well as classical neural networks.
- Abstract(参考訳): 工学や科学における多くの計算問題において、機能やモデルの微分は不可欠であるが、統合も必要である。
計算問題の重要なクラスには、函数の積分と微分の両方を含むいわゆる積分微分方程式が含まれる。
別の例では、確率微分方程式は確率変数の確率密度関数の偏微分方程式の項で書くことができる。
密度関数に基づいて確率変数の特性を学習するには、密度関数の特定の積分変換、すなわちモーメントを計算する必要がある。
近年,微分方程式の自動微分を利用した解法として,物理情報ニューラルネットワークの機械学習パラダイムが注目されている。
本研究では, 学習解に対する複雑な積分変換を計算するために, 自動積分による物理形ニューラルネットワークのパラダイムの強化と, 訓練中に積分をオンザフライで計算する積分微分方程式の解法を提案する。
さらに,量子コンピュータベースのニューラルネットワークや古典的ニューラルネットワークを数値シミュレーションすることで,様々なアプリケーション設定における手法を紹介する。
関連論文リスト
- Physics-Informed Quantum Machine Learning for Solving Partial
Differential Equations [0.0]
観測可能量の変化として、パウリ-Z作用素の和に対するテンソル積を提案する。
このアイデアは、リカティ方程式の複素力学の解法で検証されている。
2次元ポアソン方程式の解法として,多変数関数を近似する新しい量子回路構造を提案する。
論文 参考訳(メタデータ) (2023-12-14T18:46:35Z) - Tunable Complexity Benchmarks for Evaluating Physics-Informed Neural
Networks on Coupled Ordinary Differential Equations [64.78260098263489]
本研究では,より複雑に結合した常微分方程式(ODE)を解く物理インフォームドニューラルネットワーク(PINN)の能力を評価する。
PINNの複雑性が増大するにつれて,これらのベンチマークに対する正しい解が得られないことが示される。
PINN損失のラプラシアンは,ネットワーク容量の不足,ODEの条件の低下,局所曲率の高さなど,いくつかの理由を明らかにした。
論文 参考訳(メタデータ) (2022-10-14T15:01:32Z) - Stochastic Scaling in Loss Functions for Physics-Informed Neural
Networks [0.0]
訓練されたニューラルネットワークは普遍関数近似器として機能し、新しい方法で微分方程式を数値的に解くことができる。
従来の損失関数とトレーニングパラメータのバリエーションは、ニューラルネットワーク支援ソリューションをより効率的にする上で有望であることを示している。
論文 参考訳(メタデータ) (2022-08-07T17:12:39Z) - Neural Laplace: Learning diverse classes of differential equations in
the Laplace domain [86.52703093858631]
本稿では,これらすべてを含む多種多様な微分方程式(DE)を学習するための統一的な枠組みを提案する。
時間領域の力学をモデル化する代わりに、ラプラス領域でモデル化する。
The experiment, Neural Laplace shows excellent performance in modelling and extrapolating the trajectories of various class of DEs。
論文 参考訳(メタデータ) (2022-06-10T02:14:59Z) - AutoIP: A United Framework to Integrate Physics into Gaussian Processes [15.108333340471034]
あらゆる微分方程式をガウス過程に統合できる枠組みを提案する。
本手法は,シミュレーションと実世界の応用の両方において,バニラGPの改善を示す。
論文 参考訳(メタデータ) (2022-02-24T19:02:14Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - Physics informed neural networks for continuum micromechanics [68.8204255655161]
近年,応用数学や工学における多種多様な問題に対して,物理情報ニューラルネットワークの適用が成功している。
グローバルな近似のため、物理情報ニューラルネットワークは、最適化によって局所的な効果と強い非線形解を表示するのに困難である。
実世界の$mu$CT-Scansから得られた不均一構造における非線形応力, 変位, エネルギー場を, 正確に解くことができる。
論文 参考訳(メタデータ) (2021-10-14T14:05:19Z) - Partial Differential Equations is All You Need for Generating Neural
Architectures -- A Theory for Physical Artificial Intelligence Systems [29.667065357274385]
統計物理学では反応拡散方程式、量子力学ではschr"odinger方程式、同軸光学ではhelmholtz方程式を一般化する。
数値解を求めるために,有限差分法を用いてNPDEを判別する。
多層パーセプトロン、畳み込みニューラルネットワーク、繰り返しニューラルネットワークなど、ディープニューラルネットワークアーキテクチャの基本構成要素が生成されます。
論文 参考訳(メタデータ) (2021-03-10T00:05:46Z) - Large-scale Neural Solvers for Partial Differential Equations [48.7576911714538]
偏微分方程式 (PDE) を解くことは、多くのプロセスがPDEの観点でモデル化できるため、科学の多くの分野において不可欠である。
最近の数値解法では、基礎となる方程式を手動で離散化するだけでなく、分散コンピューティングのための高度で調整されたコードも必要である。
偏微分方程式, 物理インフォームドニューラルネットワーク(PINN)に対する連続メッシュフリーニューラルネットワークの適用性について検討する。
本稿では,解析解に関するGatedPINNの精度と,スペクトル解法などの最先端数値解法について論じる。
論文 参考訳(メタデータ) (2020-09-08T13:26:51Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Neural network representation of the probability density function of
diffusion processes [0.0]
物理インフォームドニューラルネットワークは、ランダム環境における力学系の状態を特徴付けるために開発された。
解析的,数値的に各微分方程式を解くことの利点と欠点を解析的に検討し,その状態を特徴づける。
論文 参考訳(メタデータ) (2020-01-15T17:15:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。