論文の概要: Accelerating Fractional PINNs using Operational Matrices of Derivative
- arxiv url: http://arxiv.org/abs/2401.14081v1
- Date: Thu, 25 Jan 2024 11:00:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-26 14:56:25.742924
- Title: Accelerating Fractional PINNs using Operational Matrices of Derivative
- Title(参考訳): 導関数の操作行列を用いた分数ピンの加速
- Authors: Tayebeh Taheri, Alireza Afzal Aghaei, Kourosh Parand
- Abstract要約: 本稿では,分数次物理学情報ニューラルネットワーク(fPINN)の学習を高速化する新しい演算行列法を提案する。
提案手法では、カプトー型分数微分問題において、0alpha1$での分数導関数の高速な計算を容易にする。
提案手法の有効性は,遅延微分方程式 (DDE) や微分代数方程式 (DAE) など,様々な微分方程式にまたがって検証される。
- 参考スコア(独自算出の注目度): 0.24578723416255746
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a novel operational matrix method to accelerate the
training of fractional Physics-Informed Neural Networks (fPINNs). Our approach
involves a non-uniform discretization of the fractional Caputo operator,
facilitating swift computation of fractional derivatives within Caputo-type
fractional differential problems with $0<\alpha<1$. In this methodology, the
operational matrix is precomputed, and during the training phase, automatic
differentiation is replaced with a matrix-vector product. While our methodology
is compatible with any network, we particularly highlight its successful
implementation in PINNs, emphasizing the enhanced accuracy achieved when
utilizing the Legendre Neural Block (LNB) architecture. LNB incorporates
Legendre polynomials into the PINN structure, providing a significant boost in
accuracy. The effectiveness of our proposed method is validated across diverse
differential equations, including Delay Differential Equations (DDEs) and
Systems of Differential Algebraic Equations (DAEs). To demonstrate its
versatility, we extend the application of the method to systems of differential
equations, specifically addressing nonlinear Pantograph fractional-order
DDEs/DAEs. The results are supported by a comprehensive analysis of numerical
outcomes.
- Abstract(参考訳): 本稿では,分数物理学インフォームドニューラルネットワーク(fpinn)の学習を高速化する新しい操作行列法を提案する。
提案手法は、分数演算子の非一様離散化を伴い、$0<\alpha<1$のカプトー型分数微分問題における分数微分の迅速な計算を容易にする。
本手法では, 演算行列を事前計算し, 訓練段階において, 自動微分を行列ベクトル積に置き換える。
我々の手法はどのネットワークとも互換性があるが、特にPINNにおける実装の成功を強調し、レジェンダーニューラルブロック(LNB)アーキテクチャを利用する際の精度の向上を強調している。
LNBはレジェンドレ多項式をPINN構造に組み込み、精度を大幅に向上させる。
提案手法の有効性は,DDE(Delay Differential Equations)やDAE(System of Differential Algebraic Equations)など,様々な微分方程式で検証される。
その汎用性を示すため、微分方程式系への応用を拡張し、特に非線形パンタグラフ分数次DDE/DAEに対処する。
結果は数値結果の包括的な分析によって裏付けられる。
関連論文リスト
- A Physics-Informed Machine Learning Approach for Solving Distributed Order Fractional Differential Equations [0.0]
本稿では,物理インフォームド機械学習フレームワークを用いた分散次分数差分方程式の解法を提案する。
分散階関数式をSVRフレームワークに組み込むことで、物理法則を直接学習プロセスに組み込む。
提案手法の有効性は,Caputo-based distributed-order fractional differential equationsの数値実験を通じて検証した。
論文 参考訳(メタデータ) (2024-09-05T13:20:10Z) - DOF: Accelerating High-order Differential Operators with Forward
Propagation [40.71528485918067]
一般の2階微分演算子を精度を損なわずに計算するための効率的なフレームワークである差分演算子(DOF)を提案する。
我々は、効率が2倍改善され、どんなアーキテクチャでもメモリ消費が削減されたことを実証する。
実験結果から,本手法は従来の自動微分法(AutoDiff)よりも優れ,構造が2倍,空間が20倍近く向上していることがわかった。
論文 参考訳(メタデータ) (2024-02-15T05:59:21Z) - An Orthogonal Polynomial Kernel-Based Machine Learning Model for
Differential-Algebraic Equations [0.24578723416255746]
本稿では,LS-SVR機械学習モデル,重み付き残差法,レジェンダ間の接続を確立することにより,一般DAEを演算子形式で解く新しい手法を提案する。
提案手法の有効性を評価するため,非線形システム,分数次微分,積分微分,部分DAEなど,様々なDAEシナリオを考慮したシミュレーションを行った。
論文 参考訳(メタデータ) (2024-01-25T18:37:17Z) - Semi-supervised Learning of Partial Differential Operators and Dynamical
Flows [68.77595310155365]
本稿では,超ネットワーク解法とフーリエニューラル演算子アーキテクチャを組み合わせた新しい手法を提案する。
本手法は, 1次元, 2次元, 3次元の非線形流体を含む様々な時間発展PDEを用いて実験を行った。
その結果、新しい手法は、監督点の時点における学習精度を向上し、任意の中間時間にその解を補間できることを示した。
論文 参考訳(メタデータ) (2022-07-28T19:59:14Z) - Extended dynamic mode decomposition with dictionary learning using
neural ordinary differential equations [0.8701566919381223]
NODEを用いた拡張動的モード分解を行うアルゴリズムを提案する。
数値実験により,提案手法のパラメータ効率の優位性を示す。
論文 参考訳(メタデータ) (2021-10-01T06:56:14Z) - Incorporating NODE with Pre-trained Neural Differential Operator for
Learning Dynamics [73.77459272878025]
ニューラル微分演算子(NDO)の事前学習による動的学習における教師付き信号の強化を提案する。
NDOは記号関数のクラスで事前訓練され、これらの関数の軌跡サンプルとそれらの導関数とのマッピングを学習する。
我々は,NDOの出力が,ライブラリの複雑さを適切に調整することで,基礎となる真理微分を適切に近似できることを理論的に保証する。
論文 参考訳(メタデータ) (2021-06-08T08:04:47Z) - Efficiently Solving High-Order and Nonlinear ODEs with Rational Fraction
Polynomial: the Ratio Net [3.155317790896023]
本研究では、ニューラルネットワークアーキテクチャを導入して、比重ネットと呼ばれる試行関数を構築することで、異なるアプローチをとる。
実証実験により,提案手法は既存手法と比較して高い効率性を示すことを示した。
比重ネットは、微分方程式の解法効率と有効性を向上させることを約束する。
論文 参考訳(メタデータ) (2021-05-18T16:59:52Z) - DiffPD: Differentiable Projective Dynamics with Contact [65.88720481593118]
DiffPDは、暗黙の時間積分を持つ効率的な微分可能なソフトボディシミュレータである。
我々はDiffPDの性能を評価し,様々な応用における標準ニュートン法と比較して4~19倍のスピードアップを観測した。
論文 参考訳(メタデータ) (2021-01-15T00:13:33Z) - Efficient Learning of Generative Models via Finite-Difference Score
Matching [111.55998083406134]
有限差分で任意の順序方向微分を効率的に近似する汎用戦略を提案する。
我々の近似は関数評価にのみ関係しており、これは並列で実行でき、勾配計算は行わない。
論文 参考訳(メタデータ) (2020-07-07T10:05:01Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。