論文の概要: Learning nonlinear integral operators via Recurrent Neural Networks and
its application in solving Integro-Differential Equations
- arxiv url: http://arxiv.org/abs/2310.09434v1
- Date: Fri, 13 Oct 2023 22:57:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-18 02:05:39.820172
- Title: Learning nonlinear integral operators via Recurrent Neural Networks and
its application in solving Integro-Differential Equations
- Title(参考訳): リカレントニューラルネットワークによる非線形積分作用素の学習と積分微分方程式の解法への応用
- Authors: Hardeep Bassi, Yuanran Zhu, Senwei Liang, Jia Yin, Cian C. Reeves,
Vojtech Vlcek, and Chao Yang
- Abstract要約: 非線形積分微分方程式(IDE)に現れる非線形積分作用素を学習し、表現する。
非線形積分作用素のLSTM-RNN表現により、非線形積分微分方程式の系を通常の微分方程式の系に変換することができる。
量子多体系に対するダイソン方程式を効果的に解く方法について述べる。
- 参考スコア(独自算出の注目度): 4.011446845089061
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we propose using LSTM-RNNs (Long Short-Term Memory-Recurrent
Neural Networks) to learn and represent nonlinear integral operators that
appear in nonlinear integro-differential equations (IDEs). The LSTM-RNN
representation of the nonlinear integral operator allows us to turn a system of
nonlinear integro-differential equations into a system of ordinary differential
equations for which many efficient solvers are available. Furthermore, because
the use of LSTM-RNN representation of the nonlinear integral operator in an IDE
eliminates the need to perform a numerical integration in each numerical time
evolution step, the overall temporal cost of the LSTM-RNN-based IDE solver can
be reduced to $O(n_T)$ from $O(n_T^2)$ if a $n_T$-step trajectory is to be
computed. We illustrate the efficiency and robustness of this LSTM-RNN-based
numerical IDE solver with a model problem. Additionally, we highlight the
generalizability of the learned integral operator by applying it to IDEs driven
by different external forces. As a practical application, we show how this
methodology can effectively solve the Dyson's equation for quantum many-body
systems.
- Abstract(参考訳): 本稿では,lstm-rnns(long short-term memory-recurrent neural networks)を用いて,非線形積分微分方程式(ide)に現れる非線形積分演算子を学習し,表現する手法を提案する。
非線形積分作用素のLSTM-RNN表現により、非線形積分微分方程式の系を、多くの効率的な解法が利用できる通常の微分方程式の系に変換することができる。
さらに、IDEにおける非線形積分作用素のLSTM-RNN表現を用いることで、数値時間進化ステップ毎に数値積分を行う必要がなくなるため、LSTM-RNNベースのIDEソルバの全体的な時間コストは、$O(n_T)$から$O(n_T^2)$に削減できる。
モデル問題を用いたLSTM-RNNに基づく数値IDEソルバの効率性とロバスト性について述べる。
さらに、異なる外部力によって駆動されるIDEに適用することで、学習された積分演算子の一般化性を強調します。
現実的な応用として、量子多体系に対するダイソン方程式を効果的に解く方法を示す。
関連論文リスト
- Scalable Mechanistic Neural Networks [52.28945097811129]
長い時間的シーケンスを含む科学機械学習応用のための拡張ニューラルネットワークフレームワークを提案する。
元のメカニスティックニューラルネットワーク (MNN) を再構成することにより、計算時間と空間の複雑さを、それぞれ、列長に関して立方体と二次体から線形へと減少させる。
大規模な実験により、S-MNNは元のMNNと精度で一致し、計算資源を大幅に削減した。
論文 参考訳(メタデータ) (2024-10-08T14:27:28Z) - DimOL: Dimensional Awareness as A New 'Dimension' in Operator Learning [63.5925701087252]
本稿では,DimOL(Dimension-aware Operator Learning)を紹介し,次元解析から洞察を得る。
DimOLを実装するために,FNOおよびTransformerベースのPDEソルバにシームレスに統合可能なProdLayerを提案する。
経験的に、DimOLモデルはPDEデータセット内で最大48%のパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - PMNN:Physical Model-driven Neural Network for solving time-fractional
differential equations [17.66402435033991]
時間差分方程式を解くために, 革新的物理モデル駆動ニューラルネットワーク (PMNN) 法を提案する。
ディープニューラルネットワーク(DNN)と分数微分の近似を効果的に組み合わせる。
論文 参考訳(メタデータ) (2023-10-07T12:43:32Z) - A Polynomial Time Quantum Algorithm for Exponentially Large Scale Nonlinear Differential Equations via Hamiltonian Simulation [1.6003521378074745]
量子コンピュータ上で効率よく解ける非線形ODEのクラスを導入する。
具体的には、非線形ODEの系をハミルトン力学にマッピングするために、クープマン・フォン・ノイマン線型化を用いる。
これにより、$O(rm log(N))$ overhead で非線形ODEを解くのに最適なハミルトンシミュレーション手法を利用できる。
論文 参考訳(メタデータ) (2023-05-01T04:22:56Z) - DOSnet as a Non-Black-Box PDE Solver: When Deep Learning Meets Operator
Splitting [12.655884541938656]
我々はDeep Operator-Splitting Network (DOSnet) と名付けた学習型PDEソルバを開発した。
DOSnetは物理規則から構築され、基礎となるダイナミクスを管理する演算子は学習可能なパラメータを含む。
我々は、演算子分解可能な微分方程式のいくつかのタイプでそれを訓練し、検証する。
論文 参考訳(メタデータ) (2022-12-11T18:23:56Z) - Tunable Complexity Benchmarks for Evaluating Physics-Informed Neural
Networks on Coupled Ordinary Differential Equations [64.78260098263489]
本研究では,より複雑に結合した常微分方程式(ODE)を解く物理インフォームドニューラルネットワーク(PINN)の能力を評価する。
PINNの複雑性が増大するにつれて,これらのベンチマークに対する正しい解が得られないことが示される。
PINN損失のラプラシアンは,ネットワーク容量の不足,ODEの条件の低下,局所曲率の高さなど,いくつかの理由を明らかにした。
論文 参考訳(メタデータ) (2022-10-14T15:01:32Z) - Neural Integral Equations [3.087238735145305]
IEソルバを用いたデータから未知の積分演算子を学習する手法を提案する。
また,注意神経積分方程式(ANIE, Attentional Neural Integral Equations)も提示する。
論文 参考訳(メタデータ) (2022-09-30T02:32:17Z) - Legendre Deep Neural Network (LDNN) and its application for
approximation of nonlinear Volterra Fredholm Hammerstein integral equations [1.9649448021628986]
本稿では,非線形ボルテラ・フレドホルム・ハマースタイン方程式(VFHIE)の解法としてレジェンダ・ディープニューラルネットワーク(LDNN)を提案する。
LDNNと組み合わせたガウス二次コロケーション法を用いて,非線形VFHIEに対する新しい数値解法を提案する。
論文 参考訳(メタデータ) (2021-06-27T21:00:09Z) - Learning to Solve the AC-OPF using Sensitivity-Informed Deep Neural
Networks [52.32646357164739]
最適な電力フロー(ACOPF)のソリューションを解決するために、ディープニューラルネットワーク(DNN)を提案します。
提案されたSIDNNは、幅広いOPFスキームと互換性がある。
他のLearning-to-OPFスキームとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-03-27T00:45:23Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。