論文の概要: Chaotic Hedging with Iterated Integrals and Neural Networks
- arxiv url: http://arxiv.org/abs/2209.10166v1
- Date: Wed, 21 Sep 2022 07:57:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 16:09:50.357177
- Title: Chaotic Hedging with Iterated Integrals and Neural Networks
- Title(参考訳): 反復積分とニューラルネットワークを用いたカオスヘッジ
- Authors: Ariel Neufeld, Philipp Schmocker
- Abstract要約: すべての$p$-可積分函数が、[1,infty)$の$pに対して、基礎となる過程の反復積分の和として表されることを示す。
また、すべての金融デリバティブが$Lp$-senseで任意に近似可能であることも示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we extend the Wiener-Ito chaos decomposition to the class of
diffusion processes, whose drift and diffusion coefficient are of linear
growth. By omitting the orthogonality in the chaos expansion, we are able to
show that every $p$-integrable functional, for $p \in [1,\infty)$, can be
represented as sum of iterated integrals of the underlying process. Using a
truncated sum of this expansion and (possibly random) neural networks for the
integrands, whose parameters are learned in a machine learning setting, we show
that every financial derivative can be approximated arbitrarily well in the
$L^p$-sense. Moreover, the hedging strategy of the approximating financial
derivative can be computed in closed form.
- Abstract(参考訳): 本稿では,Wiener-Itoカオス分解を,線形成長のドリフトと拡散係数を持つ拡散過程のクラスに拡張する。
カオス展開における直交性を省略することで、すべての$p$-可積分汎函数(英語版)($p \in [1,\infty)$)が基底プロセスの反復積分の和として表現できることを示すことができる。
この拡張と、機械学習環境でパラメータを学習するインテグレードのための(おそらくランダムな)ニューラルネットワークの切り詰められた和を用いて、すべての金融デリバティブが$L^p$-senseで任意に近似可能であることを示す。
また、近似金融デリバティブのヘッジ戦略を閉じた形で計算することができる。
関連論文リスト
- Correspondence between open bosonic systems and stochastic differential
equations [77.34726150561087]
ボゾン系が環境との相互作用を含むように一般化されたとき、有限$n$で正確な対応も可能であることを示す。
離散非線形シュル「オーディンガー方程式」の形をした特定の系をより詳細に分析する。
論文 参考訳(メタデータ) (2023-02-03T19:17:37Z) - Neural Network Approximation of Continuous Functions in High Dimensions
with Applications to Inverse Problems [6.84380898679299]
現在の理論では、ネットワークは問題の次元で指数関数的にスケールすべきだと予測されている。
ニューラルネットワークがH"より古い(あるいは一様)連続関数を近似するのに要する複雑性を境界付ける一般的な方法を提案する。
論文 参考訳(メタデータ) (2022-08-28T22:44:07Z) - Real order total variation with applications to the loss functions in
learning schemes [5.8868325478050165]
本稿では、$r$-order (an)-isotropic total variation semi-norms $TVr$, $rin mathbbR+$からなる損失関数を提案する。
このような損失関数の関数と微分$r$の順序の両方に関して、下半連続性やコンパクト性のような重要な理論的性質の研究に焦点をあてる。
論文 参考訳(メタデータ) (2022-04-10T02:44:04Z) - Universal scaling laws in the gradient descent training of neural
networks [10.508187462682308]
学習軌跡は,大きな訓練時間に明示的な境界によって特徴づけられることを示す。
結果は,期待される損失に基づいて訓練された大規模ネットワークの進化のスペクトル解析に基づいている。
論文 参考訳(メタデータ) (2021-05-02T16:46:38Z) - Deep neural network approximation of analytic functions [91.3755431537592]
ニューラルネットワークの空間に エントロピーバウンド 片方向の線形活性化関数を持つ
我々は、ペナル化深部ニューラルネットワーク推定器の予測誤差に対するオラクルの不等式を導出する。
論文 参考訳(メタデータ) (2021-04-05T18:02:04Z) - Infinitely Wide Tensor Networks as Gaussian Process [1.7894377200944511]
本稿では、無限に広いネットワークとガウス過程の等価性を示す。
我々は無限極限テンソルネットワークに対応するガウス過程を実装し、これらのモデルのサンプルパスをプロットする。
論文 参考訳(メタデータ) (2021-01-07T02:29:15Z) - On Function Approximation in Reinforcement Learning: Optimism in the
Face of Large State Spaces [208.67848059021915]
強化学習のコアにおける探索・探索トレードオフについて検討する。
特に、関数クラス $mathcalF$ の複雑さが関数の複雑さを特徴づけていることを証明する。
私たちの後悔の限界はエピソードの数とは無関係です。
論文 参考訳(メタデータ) (2020-11-09T18:32:22Z) - Stochastic Flows and Geometric Optimization on the Orthogonal Group [52.50121190744979]
直交群 $O(d)$ 上の幾何駆動最適化アルゴリズムの新しいクラスを示す。
提案手法は,深層,畳み込み,反復的なニューラルネットワーク,強化学習,フロー,メトリック学習など,機械学習のさまざまな分野に適用可能であることを示す。
論文 参考訳(メタデータ) (2020-03-30T15:37:50Z) - Differentiating through the Fr\'echet Mean [51.32291896926807]
フレット平均(Fr'echet mean)はユークリッド平均の一般化である。
任意のリーマン多様体に対して Fr'echet 平均を微分する方法を示す。
これにより、Fr'echet平均を双曲型ニューラルネットワークパイプラインに完全に統合する。
論文 参考訳(メタデータ) (2020-02-29T19:49:38Z) - Complexity of Finding Stationary Points of Nonsmooth Nonconvex Functions [84.49087114959872]
非滑らかで非滑らかな関数の定常点を見つけるための最初の非漸近解析を提供する。
特に、アダマール半微分可能函数(おそらく非滑らか関数の最大のクラス)について研究する。
論文 参考訳(メタデータ) (2020-02-10T23:23:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。