論文の概要: Integral Transforms in a Physics-Informed (Quantum) Neural Network
setting: Applications & Use-Cases
- arxiv url: http://arxiv.org/abs/2206.14184v1
- Date: Tue, 28 Jun 2022 17:51:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-29 13:04:22.341986
- Title: Integral Transforms in a Physics-Informed (Quantum) Neural Network
setting: Applications & Use-Cases
- Title(参考訳): 物理インフォームド(量子)ニューラルネットワークにおける積分変換:応用と利用事例
- Authors: Niraj Kumar, Evan Philip, Vincent E. Elfving
- Abstract要約: 工学や科学における多くの計算問題において、関数やモデルの微分は不可欠であるが、積分も必要である。
本研究では,物理インフォームドニューラルネットワークのパラダイムを,自動統合で拡張することを提案する。
- 参考スコア(独自算出の注目度): 1.7403133838762446
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In many computational problems in engineering and science, function or model
differentiation is essential, but also integration is needed. An important
class of computational problems include so-called integro-differential
equations which include both integrals and derivatives of a function. In
another example, stochastic differential equations can be written in terms of a
partial differential equation of a probability density function of the
stochastic variable. To learn characteristics of the stochastic variable based
on the density function, specific integral transforms, namely moments, of the
density function need to be calculated. Recently, the machine learning paradigm
of Physics-Informed Neural Networks emerged with increasing popularity as a
method to solve differential equations by leveraging automatic differentiation.
In this work, we propose to augment the paradigm of Physics-Informed Neural
Networks with automatic integration in order to compute complex integral
transforms on trained solutions, and to solve integro-differential equations
where integrals are computed on-the-fly during training. Furthermore, we
showcase the techniques in various application settings, numerically simulating
quantum computer-based neural networks as well as classical neural networks.
- Abstract(参考訳): 工学や科学における多くの計算問題において、機能やモデルの微分は不可欠であるが、統合も必要である。
計算問題の重要なクラスには、函数の積分と微分の両方を含むいわゆる積分微分方程式が含まれる。
別の例では、確率微分方程式は確率変数の確率密度関数の偏微分方程式の項で書くことができる。
密度関数に基づいて確率変数の特性を学習するには、密度関数の特定の積分変換、すなわちモーメントを計算する必要がある。
近年,微分方程式の自動微分を利用した解法として,物理情報ニューラルネットワークの機械学習パラダイムが注目されている。
本研究では, 学習解に対する複雑な積分変換を計算するために, 自動積分による物理形ニューラルネットワークのパラダイムの強化と, 訓練中に積分をオンザフライで計算する積分微分方程式の解法を提案する。
さらに,量子コンピュータベースのニューラルネットワークや古典的ニューラルネットワークを数値シミュレーションすることで,様々なアプリケーション設定における手法を紹介する。
関連論文リスト
- Neural Control Variates with Automatic Integration [49.91408797261987]
本稿では,任意のニューラルネットワークアーキテクチャから学習可能なパラメトリック制御関数を構築するための新しい手法を提案する。
我々はこのネットワークを用いて積分器の反微分を近似する。
我々はウォーク・オン・スフィア・アルゴリズムを用いて偏微分方程式を解くために本手法を適用した。
論文 参考訳(メタデータ) (2024-09-23T06:04:28Z) - Self-Adaptive Physics-Informed Quantum Machine Learning for Solving Differential Equations [0.0]
チェビシェフは、古典的および量子的ニューラルネットワークが微分方程式を解くための効率的なツールとして有望であることを示した。
我々は、このフレームワークを様々な問題に対して量子機械学習環境に適応し、一般化する。
その結果,量子デバイス上での微分方程式の短期的評価に対する有望なアプローチが示唆された。
論文 参考訳(メタデータ) (2023-12-14T18:46:35Z) - Symbolic Recovery of Differential Equations: The Identifiability Problem [52.158782751264205]
微分方程式の記号的回復は、支配方程式の導出を自動化する野心的な試みである。
関数が対応する微分方程式を一意に決定するために必要な条件と十分な条件の両方を提供する。
この結果を用いて、関数が微分方程式を一意に解くかどうかを判定する数値アルゴリズムを考案する。
論文 参考訳(メタデータ) (2022-10-15T17:32:49Z) - Tunable Complexity Benchmarks for Evaluating Physics-Informed Neural
Networks on Coupled Ordinary Differential Equations [64.78260098263489]
本研究では,より複雑に結合した常微分方程式(ODE)を解く物理インフォームドニューラルネットワーク(PINN)の能力を評価する。
PINNの複雑性が増大するにつれて,これらのベンチマークに対する正しい解が得られないことが示される。
PINN損失のラプラシアンは,ネットワーク容量の不足,ODEの条件の低下,局所曲率の高さなど,いくつかの理由を明らかにした。
論文 参考訳(メタデータ) (2022-10-14T15:01:32Z) - Stochastic Scaling in Loss Functions for Physics-Informed Neural
Networks [0.0]
訓練されたニューラルネットワークは普遍関数近似器として機能し、新しい方法で微分方程式を数値的に解くことができる。
従来の損失関数とトレーニングパラメータのバリエーションは、ニューラルネットワーク支援ソリューションをより効率的にする上で有望であることを示している。
論文 参考訳(メタデータ) (2022-08-07T17:12:39Z) - Neural Laplace: Learning diverse classes of differential equations in
the Laplace domain [86.52703093858631]
本稿では,これらすべてを含む多種多様な微分方程式(DE)を学習するための統一的な枠組みを提案する。
時間領域の力学をモデル化する代わりに、ラプラス領域でモデル化する。
The experiment, Neural Laplace shows excellent performance in modelling and extrapolating the trajectories of various class of DEs。
論文 参考訳(メタデータ) (2022-06-10T02:14:59Z) - AutoIP: A United Framework to Integrate Physics into Gaussian Processes [15.108333340471034]
あらゆる微分方程式をガウス過程に統合できる枠組みを提案する。
本手法は,シミュレーションと実世界の応用の両方において,バニラGPの改善を示す。
論文 参考訳(メタデータ) (2022-02-24T19:02:14Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Neural network representation of the probability density function of
diffusion processes [0.0]
物理インフォームドニューラルネットワークは、ランダム環境における力学系の状態を特徴付けるために開発された。
解析的,数値的に各微分方程式を解くことの利点と欠点を解析的に検討し,その状態を特徴づける。
論文 参考訳(メタデータ) (2020-01-15T17:15:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。