論文の概要: Solving High-Dimensional Partial Integral Differential Equations: The Finite Expression Method
- arxiv url: http://arxiv.org/abs/2410.00835v1
- Date: Tue, 1 Oct 2024 16:16:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-05 03:55:54.827931
- Title: Solving High-Dimensional Partial Integral Differential Equations: The Finite Expression Method
- Title(参考訳): 高次元部分積分微分方程式の解法:有限式法
- Authors: Gareth Hardwick, Senwei Liang, Haizhao Yang,
- Abstract要約: 我々は高次元部分積分微分方程式(PIDE)を解くための新しい有限式法(FEX)を導入する。
FEX-PGと呼ばれる新しいFEXベースの手法は、高精度かつ解釈可能な数値解を提供する。
高次元設定では、FEX-PGは強力で頑健な性能を示し、単一の精度マシンのエプシロンの順序で相対誤差を達成している。
- 参考スコア(独自算出の注目度): 8.220217498103315
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we introduce a new finite expression method (FEX) to solve high-dimensional partial integro-differential equations (PIDEs). This approach builds upon the original FEX and its inherent advantages with new advances: 1) A novel method of parameter grouping is proposed to reduce the number of coefficients in high-dimensional function approximation; 2) A Taylor series approximation method is implemented to significantly improve the computational efficiency and accuracy of the evaluation of the integral terms of PIDEs. The new FEX based method, denoted FEX-PG to indicate the addition of the parameter grouping (PG) step to the algorithm, provides both high accuracy and interpretable numerical solutions, with the outcome being an explicit equation that facilitates intuitive understanding of the underlying solution structures. These features are often absent in traditional methods, such as finite element methods (FEM) and finite difference methods, as well as in deep learning-based approaches. To benchmark our method against recent advances, we apply the new FEX-PG to solve benchmark PIDEs in the literature. In high-dimensional settings, FEX-PG exhibits strong and robust performance, achieving relative errors on the order of single precision machine epsilon.
- Abstract(参考訳): 本稿では,高次元部分積分微分方程式(PIDE)を解くための新しい有限式法(FEX)を提案する。
このアプローチは、オリジナルのFEXと、その固有のアドバンテージを新しい進歩で構築する。
1) 高次元関数近似における係数数を減少させる新しいパラメータグループ化法を提案する。
2) PIDE の積分項の評価の計算効率と精度を大幅に向上させるために,Taylor 系列近似法を実装した。
新しいFEX-PG法は,パラメータグループ化(PG)ステップのアルゴリズムへの付加を示すためにFEX-PGと表記され,高い精度と解釈可能な数値解を提供し,基礎となる解構造の直感的な理解を容易にする明示的な方程式である。
これらの特徴は、有限要素法(FEM)や有限差分法のような伝統的な手法や、深層学習に基づくアプローチでは欠落することが多い。
近年の進歩に対して,本手法をベンチマークするために,文献中のベンチマークPIDEを解決するために新しいFEX-PGを適用した。
高次元設定では、FEX-PGは強力で頑健な性能を示し、単一の精度マシンのエプシロンの順序で相対誤差を達成する。
関連論文リスト
- Estimating unknown parameters in differential equations with a reinforcement learning based PSO method [2.9808905403445145]
本稿では,粒子の概念を導入することにより,微分方程式のパラメータ推定問題を最適化問題として再検討する。
本稿では、強化学習に基づく粒子群最適化(RLLPSO)に基づいて、微分方程式の未知パラメータを推定する新しい手法DERLPSOを提案する。
実験の結果,DERLPSOは平均1.13e-05の誤差を達成し,他の手法よりも高い性能を示した。
論文 参考訳(メタデータ) (2024-11-13T14:40:51Z) - DOF: Accelerating High-order Differential Operators with Forward
Propagation [40.71528485918067]
一般の2階微分演算子を精度を損なわずに計算するための効率的なフレームワークである差分演算子(DOF)を提案する。
我々は、効率が2倍改善され、どんなアーキテクチャでもメモリ消費が削減されたことを実証する。
実験結果から,本手法は従来の自動微分法(AutoDiff)よりも優れ,構造が2倍,空間が20倍近く向上していることがわかった。
論文 参考訳(メタデータ) (2024-02-15T05:59:21Z) - Sarah Frank-Wolfe: Methods for Constrained Optimization with Best Rates and Practical Features [65.64276393443346]
Frank-Wolfe (FW) 法は、構造化制約による最適化問題の解法として一般的な手法である。
有限サム勾配の最小化のためのアルゴリズムの2つの新しい変種を示す。
論文 参考訳(メタデータ) (2023-04-23T20:05:09Z) - VI-DGP: A variational inference method with deep generative prior for
solving high-dimensional inverse problems [0.7734726150561089]
本研究では,高次元後方分布を推定するための新しい近似法を提案する。
このアプローチは、深層生成モデルを利用して、空間的に変化するパラメータを生成することができる事前モデルを学ぶ。
提案手法は自動微分方式で完全に実装できる。
論文 参考訳(メタデータ) (2023-02-22T06:48:10Z) - An Accelerated Doubly Stochastic Gradient Method with Faster Explicit
Model Identification [97.28167655721766]
本稿では、分散正規化損失最小化問題に対する2倍加速勾配降下法(ADSGD)を提案する。
まず、ADSGDが線形収束率を達成でき、全体的な計算複雑性を低減できることを示す。
論文 参考訳(メタデータ) (2022-08-11T22:27:22Z) - Mean-field Variational Inference via Wasserstein Gradient Flow [8.05603983337769]
平均場(MF)近似のような変分推論は、効率的な計算のためにある種の共役構造を必要とする。
We introduced a general computer framework to implement MFal inference for Bayesian model with or without latent variables, using the Wasserstein gradient flow (WGF)。
本稿では,ニューラルネットワークを用いた制約のない関数近似手法を提案する。
論文 参考訳(メタデータ) (2022-07-17T04:05:32Z) - Logistic Q-Learning [87.00813469969167]
MDPにおける最適制御の正規化線形プログラミング定式化から導いた新しい強化学習アルゴリズムを提案する。
提案アルゴリズムの主な特徴は,広範に使用されているベルマン誤差の代わりとして理論的に音声として機能する,政策評価のための凸損失関数である。
論文 参考訳(メタデータ) (2020-10-21T17:14:31Z) - Efficient Learning of Generative Models via Finite-Difference Score
Matching [111.55998083406134]
有限差分で任意の順序方向微分を効率的に近似する汎用戦略を提案する。
我々の近似は関数評価にのみ関係しており、これは並列で実行でき、勾配計算は行わない。
論文 参考訳(メタデータ) (2020-07-07T10:05:01Z) - Understanding Nesterov's Acceleration via Proximal Point Method [52.99237600875452]
近似点法(PPM)は最適化アルゴリズムを設計するためのビルディングブロックとしてよく用いられる。
本研究では、PPM法を用いて、Nesterovの加速度勾配法(AGM)の異なるバージョンの収束解析とともに、概念的に単純な導出を提供する。
論文 参考訳(メタデータ) (2020-05-17T17:17:18Z) - SLEIPNIR: Deterministic and Provably Accurate Feature Expansion for
Gaussian Process Regression with Derivatives [86.01677297601624]
本稿では,2次フーリエ特徴に基づく導関数によるGP回帰のスケーリング手法を提案する。
我々は、近似されたカーネルと近似された後部の両方に適用される決定論的、非漸近的、指数関数的に高速な崩壊誤差境界を証明した。
論文 参考訳(メタデータ) (2020-03-05T14:33:20Z) - Sparse Orthogonal Variational Inference for Gaussian Processes [34.476453597078894]
誘導点を用いたガウス過程に対するスパース変分近似の新しい解釈を導入する。
この定式化は既存の近似を復元し、同時に限界確率と新しい変分推論アルゴリズムのより厳密な下界を得ることができることを示す。
論文 参考訳(メタデータ) (2019-10-23T15:01:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。