論文の概要: Computing Anti-Derivatives using Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2209.09084v1
- Date: Mon, 19 Sep 2022 15:16:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 20:24:13.679506
- Title: Computing Anti-Derivatives using Deep Neural Networks
- Title(参考訳): ディープニューラルネットワークを用いたアンチデリバティブの計算
- Authors: D. Chakraborty and S. Gopalakrishnan
- Abstract要約: 本稿では,Deep Neural Network アーキテクチャを用いて,関数のクローズドフォーム・アンチデリバティブを求めるアルゴリズムを提案する。
すべての積分に対して1つの方法を用いることで、我々のアルゴリズムは任意の精度で反微分を近似することができると主張している。
本稿では,楕円積分,フェルミ・ディラック積分,累積分布関数の閉形式式を得るための手法の適用について述べる。
- 参考スコア(独自算出の注目度): 3.42658286826597
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper presents a novel algorithm to obtain the closed-form
anti-derivative of a function using Deep Neural Network architecture. In the
past, mathematicians have developed several numerical techniques to approximate
the values of definite integrals, but primitives or indefinite integrals are
often non-elementary. Anti-derivatives are necessarily required when there are
several parameters in an integrand and the integral obtained is a function of
those parameters. There is no theoretical method that can do this for any given
function. Some existing ways to get around this are primarily based on either
curve fitting or infinite series approximation of the integrand, which is then
integrated theoretically. Curve fitting approximations are inaccurate for
highly non-linear functions and require a different approach for every problem.
On the other hand, the infinite series approach does not give a closed-form
solution, and their truncated forms are often inaccurate. We claim that using a
single method for all integrals, our algorithm can approximate anti-derivatives
to any required accuracy. We have used this algorithm to obtain the
anti-derivatives of several functions, including non-elementary and oscillatory
integrals. This paper also shows the applications of our method to get the
closed-form expressions of elliptic integrals, Fermi-Dirac integrals, and
cumulative distribution functions and decrease the computation time of the
Galerkin method for differential equations.
- Abstract(参考訳): 本稿では,ディープニューラルネットワークを用いた関数の閉形式反導出を求める新しいアルゴリズムを提案する。
これまで、数学者は定積分の値を近似するいくつかの数値的手法を開発してきたが、プリミティブや不定積分はしばしば非定積分である。
積分にいくつかのパラメータがあり、得られる積分がそれらのパラメータの関数である場合、反導出は必然的に必要となる。
任意の関数に対してこれを行う理論的な方法は存在しない。
これを回避するための既存の方法のいくつかは、主に曲線のフィッティングまたは積分の無限級数近似に基づいている。
曲線フィッティング近似は高非線形関数に対して不正確であり、すべての問題に対して異なるアプローチを必要とする。
一方、無限級数アプローチは閉形式解を与えず、それらの切断形式はしばしば不正確である。
我々は、すべての積分に対して単一の方法を用いることで、アルゴリズムは必要な精度で反導出を近似することができると主張する。
我々は、このアルゴリズムを用いて、非要素積分や振動積分を含むいくつかの関数の反導出を得る。
本稿では, 楕円積分, フェルミ・ディラック積分, 累積分布関数の閉形式表現の取得や, 微分方程式に対するガレルキン法の計算時間を短縮する手法の応用について述べる。
関連論文リスト
- Neural Control Variates with Automatic Integration [49.91408797261987]
本稿では,任意のニューラルネットワークアーキテクチャから学習可能なパラメトリック制御関数を構築するための新しい手法を提案する。
我々はこのネットワークを用いて積分器の反微分を近似する。
我々はウォーク・オン・スフィア・アルゴリズムを用いて偏微分方程式を解くために本手法を適用した。
論文 参考訳(メタデータ) (2024-09-23T06:04:28Z) - PINNIES: An Efficient Physics-Informed Neural Network Framework to Integral Operator Problems [0.0]
本稿では,物理インフォームド深層学習フレームワークにおける積分演算子近似のための効率的なテンソルベクトル積法を提案する。
我々は、この方法がフレドホルムとボルテラ積分作用素の両方に適用可能であることを実証する。
また,カプトー微分を効率的に計算する高速行列ベクトル積アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-09-03T13:43:58Z) - Fixed Integral Neural Networks [2.2118683064997273]
学習した関数の積分を$f$で表す方法を提案する。
これにより、ニューラルネットワークの正確な積分を計算し、制約されたニューラルネットワークをパラメータ化することができる。
また、多くのアプリケーションに必要な条件である正の$f$を制約する手法も導入する。
論文 参考訳(メタデータ) (2023-07-26T18:16:43Z) - A novel way of calculating scattering integrals [0.0]
NDIM-負次元積分法(NDIM- Negative dimensional Integration Method)と呼ばれる手法は、ガウス積分、系列展開、解析的連続という3つの発展的な基礎に基づいている。
この手法がある種の不適切な積分に取り組むためにどのように応用できるかを示し、量子力学的散乱過程に現れる特定の不適切な積分の例を示す。
論文 参考訳(メタデータ) (2023-01-10T17:14:34Z) - Chaotic Hedging with Iterated Integrals and Neural Networks [3.3379026542599934]
半マルティンゲールのすべての$p$-可積分函数が、[1,infty$]の$pに対して、その反復積分の和として表されることを示す。
また、すべての金融デリバティブが$Lp$-senseで任意に近似可能であることも示している。
論文 参考訳(メタデータ) (2022-09-21T07:57:07Z) - Posterior and Computational Uncertainty in Gaussian Processes [52.26904059556759]
ガウスのプロセスはデータセットのサイズとともに違法にスケールする。
多くの近似法が開発されており、必然的に近似誤差を導入している。
この余分な不確実性の原因は、計算が限られているため、近似後部を使用すると完全に無視される。
本研究では,観測された有限個のデータと有限個の計算量の両方から生じる組合せ不確実性を一貫した推定を行う手法の開発を行う。
論文 参考訳(メタデータ) (2022-05-30T22:16:25Z) - Automatic differentiation for Riemannian optimization on low-rank matrix
and tensor-train manifolds [71.94111815357064]
科学計算および機械学習アプリケーションでは、行列およびより一般的な多次元配列(テンソル)は、しばしば低ランク分解の助けを借りて近似することができる。
低ランク近似を見つけるための一般的なツールの1つはリーマン最適化を使うことである。
論文 参考訳(メタデータ) (2021-03-27T19:56:00Z) - Mat\'ern Gaussian processes on Riemannian manifolds [81.15349473870816]
ガウス過程の広く用いられるマタン類を一般化する方法を示す。
また、Mat'ern から広く用いられる2乗指数過程への一般化も拡張する。
論文 参考訳(メタデータ) (2020-06-17T21:05:42Z) - On dissipative symplectic integration with applications to
gradient-based optimization [77.34726150561087]
本稿では,離散化を体系的に実現する幾何学的枠組みを提案する。
我々は、シンプレクティックな非保守的、特に散逸的なハミルトン系への一般化が、制御された誤差まで収束率を維持することができることを示す。
論文 参考訳(メタデータ) (2020-04-15T00:36:49Z) - SLEIPNIR: Deterministic and Provably Accurate Feature Expansion for
Gaussian Process Regression with Derivatives [86.01677297601624]
本稿では,2次フーリエ特徴に基づく導関数によるGP回帰のスケーリング手法を提案する。
我々は、近似されたカーネルと近似された後部の両方に適用される決定論的、非漸近的、指数関数的に高速な崩壊誤差境界を証明した。
論文 参考訳(メタデータ) (2020-03-05T14:33:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。