論文の概要: Random feature neural networks learn Black-Scholes type PDEs without
curse of dimensionality
- arxiv url: http://arxiv.org/abs/2106.08900v1
- Date: Mon, 14 Jun 2021 10:03:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-17 17:33:30.648498
- Title: Random feature neural networks learn Black-Scholes type PDEs without
curse of dimensionality
- Title(参考訳): ランダム特徴ニューラルネットワークは次元の呪いなしにブラックスクール型PDEを学習する
- Authors: Lukas Gonon
- Abstract要約: 非退化ブラック・ショールズ型モデルを十分に学習するためのランダムニューラルネットワークの予測誤差のバウンダリを導出する。
その結果、ニューラルネットワークは次元の呪いを伴わずに、ブラックスコール型PDEのテキスト学習ソリューションを実現できることが証明された。
- 参考スコア(独自算出の注目度): 3.42658286826597
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This article investigates the use of random feature neural networks for
learning Kolmogorov partial (integro-)differential equations associated to
Black-Scholes and more general exponential L\'evy models. Random feature neural
networks are single-hidden-layer feedforward neural networks in which only the
output weights are trainable. This makes training particularly simple, but (a
priori) reduces expressivity. Interestingly, this is not the case for
Black-Scholes type PDEs, as we show here. We derive bounds for the prediction
error of random neural networks for learning sufficiently non-degenerate
Black-Scholes type models. A full error analysis is provided and it is shown
that the derived bounds do not suffer from the curse of dimensionality. We also
investigate an application of these results to basket options and validate the
bounds numerically.
These results prove that neural networks are able to \textit{learn} solutions
to Black-Scholes type PDEs without the curse of dimensionality. In addition,
this provides an example of a relevant learning problem in which random feature
neural networks are provably efficient.
- Abstract(参考訳): 本稿では,コルモゴロフ偏微分方程式とより一般的な指数的L''evyモデルについて,ランダム特徴ニューラルネットワークを用いて学習する。
ランダム特徴ニューラルネットワークは、出力重みのみをトレーニング可能な単層フィードフォワードニューラルネットワークである。
これによってトレーニングは特に簡単になるが、(事前)表現性が低下する。
興味深いことに、これはBlack-ScholesタイプのPDEには当てはまらない。
非退化ブラックスコール型モデルを十分に学習するためのランダムニューラルネットワークの予測誤差を導出する。
完全な誤差解析を行い、導出した境界が次元性の呪いに苦しめられていないことを示す。
また,これらの結果をバスケットオプションに適用し,境界を数値的に検証する。
これらの結果は、ニューラルネットワークが次元の呪いを伴わずに、Black-Scholes型PDEに対するtextit{learn}解を解けることを証明している。
さらに、これは、ランダム特徴ニューラルネットワークが確実に効率的である関連する学習問題の例を提供する。
関連論文リスト
- Residual Random Neural Networks [0.0]
ランダムな重みを持つ単層フィードフォワードニューラルネットワークは、ニューラルネットワークの文献の中で繰り返されるモチーフである。
隠れたニューロンの数がデータサンプルの次元と等しくない場合でも,優れた分類結果が得られることを示す。
論文 参考訳(メタデータ) (2024-10-25T22:00:11Z) - LinSATNet: The Positive Linear Satisfiability Neural Networks [116.65291739666303]
本稿では,ニューラルネットワークに人気の高い正の線形満足度を導入する方法について検討する。
本稿では,古典的なシンクホーンアルゴリズムを拡張し,複数の辺分布の集合を共同で符号化する,最初の微分可能満足層を提案する。
論文 参考訳(メタデータ) (2024-07-18T22:05:21Z) - Novel Kernel Models and Exact Representor Theory for Neural Networks Beyond the Over-Parameterized Regime [52.00917519626559]
本稿では、ニューラルネットワークの2つのモデルと、任意の幅、深さ、トポロジーのニューラルネットワークに適用可能なトレーニングについて述べる。
また、局所外在性神経核(LeNK)の観点から、非正規化勾配降下を伴う階層型ニューラルネットワークトレーニングのための正確な表現子理論を提示する。
この表現論は、ニューラルネットワークトレーニングにおける高次統計学の役割と、ニューラルネットワークのカーネルモデルにおけるカーネル進化の影響について洞察を与える。
論文 参考訳(メタデータ) (2024-05-24T06:30:36Z) - Scalable Bayesian Inference in the Era of Deep Learning: From Gaussian Processes to Deep Neural Networks [0.5827521884806072]
大規模なデータセットでトレーニングされた大規模なニューラルネットワークは、マシンラーニングの主要なパラダイムになっています。
この論文は、モデル不確実性を持つニューラルネットワークを装備するためのスケーラブルな手法を開発する。
論文 参考訳(メタデータ) (2024-04-29T23:38:58Z) - Benign Overfitting for Two-layer ReLU Convolutional Neural Networks [60.19739010031304]
ラベルフリップ雑音を持つ2層ReLU畳み込みニューラルネットワークを学習するためのアルゴリズム依存型リスクバウンダリを確立する。
緩やかな条件下では、勾配降下によってトレーニングされたニューラルネットワークは、ほぼゼロに近いトレーニング損失とベイズ最適試験リスクを達成できることを示す。
論文 参考訳(メタデータ) (2023-03-07T18:59:38Z) - The Contextual Lasso: Sparse Linear Models via Deep Neural Networks [5.607237982617641]
本研究では,空間的特徴の関数として空間的パターンと係数が変化するような説明的特徴に疎線形モデルに適合する新しい統計的推定器を開発する。
実データと合成データに関する広範な実験は、学習されたモデルは、非常に透明であり、通常のラッソよりもスペーサーであることを示している。
論文 参考訳(メタデータ) (2023-02-02T05:00:29Z) - Neural networks learn to magnify areas near decision boundaries [32.84188052937496]
本研究では,非拘束型ニューラルネットワーク特徴写像による幾何形状の学習方法について検討する。
まず、無限の幅でランダムパラメータを持つニューラルネットワークが入力空間上で高度に対称なメトリクスを誘導することを示す。
分類タスクを実行するために訓練されたネットワークは、決定境界に沿った地域を拡大するために学習する。
論文 参考訳(メタデータ) (2023-01-26T19:43:16Z) - Stochastic Neural Networks with Infinite Width are Deterministic [7.07065078444922]
使用中のニューラルネットワークの主要なタイプであるニューラルネットワークについて研究する。
最適化されたニューラルネットワークの幅が無限大になる傾向があるため、トレーニングセットの予測分散はゼロになる。
論文 参考訳(メタデータ) (2022-01-30T04:52:31Z) - Why Lottery Ticket Wins? A Theoretical Perspective of Sample Complexity
on Pruned Neural Networks [79.74580058178594]
目的関数の幾何学的構造を解析することにより、刈り取られたニューラルネットワークを訓練する性能を解析する。
本稿では,ニューラルネットワークモデルがプルーニングされるにつれて,一般化が保証された望ましいモデル近傍の凸領域が大きくなることを示す。
論文 参考訳(メタデータ) (2021-10-12T01:11:07Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - Towards Understanding Hierarchical Learning: Benefits of Neural
Representations [160.33479656108926]
この研究で、中間的神経表現がニューラルネットワークにさらなる柔軟性をもたらすことを実証する。
提案手法は, 生の入力と比較して, サンプルの複雑度を向上できることを示す。
この結果から, 深度が深層学習においてなぜ重要かという新たな視点が得られた。
論文 参考訳(メタデータ) (2020-06-24T02:44:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。