論文の概要: Chaotic Hedging with Iterated Integrals and Neural Networks
- arxiv url: http://arxiv.org/abs/2209.10166v4
- Date: Thu, 05 Jun 2025 16:02:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-06 21:53:49.096693
- Title: Chaotic Hedging with Iterated Integrals and Neural Networks
- Title(参考訳): 反復積分とニューラルネットワークによるカオスヘッジ
- Authors: Ariel Neufeld, Philipp Schmocker,
- Abstract要約: 反復ストラトノビッチ積分に基づく$Lp$-chaos展開を導出する。
任意の$p$-可積分、[1,infty)$の$pは、反復ストラトノヴィチ積分の有限和で近似できることを示す。
- 参考スコア(独自算出の注目度): 3.3379026542599934
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we derive an $L^p$-chaos expansion based on iterated Stratonovich integrals with respect to a given exponentially integrable continuous semimartingale. By omitting the orthogonality of the expansion, we show that every $p$-integrable functional, $p \in [1,\infty)$, can be approximated by a finite sum of iterated Stratonovich integrals. Using (possibly random) neural networks as integrands, we therefere obtain universal approximation results for $p$-integrable financial derivatives in the $L^p$-sense. Moreover, we can approximately solve the $L^p$-hedging problem (coinciding for $p = 2$ with the quadratic hedging problem), where the approximating hedging strategy can be computed in closed form within short runtime.
- Abstract(参考訳): 本稿では、与えられた指数関数的に可積分な連続半行列に対して、反復ストラトノビッチ積分に基づく$L^p$-chaos展開を導出する。
拡大の直交性を省略することにより、すべての$p$-可積分、$p \in [1,\infty)$は反復ストラトノビッチ積分の有限和で近似できることを示す。
確率的にランダムな)ニューラルネットワークを積分として用いると、$L^p$センスの$p$積分可能な金融デリバティブに対して普遍的な近似結果が得られる。
さらに、およそ$L^p$-hedging問題(2次ヘッジ問題と$p = 2$の共役)を解くことができ、そこでは、近似ヘッジ戦略を短いランタイム内で閉じた形で計算することができる。
関連論文リスト
- Kolmogorov-Arnold Networks: Approximation and Learning Guarantees for Functions and their Derivatives [8.517406772939292]
Kolmogorov-Arnold Networks (KAN) は、ほとんどのディープラーニングフレームワークのバックボーンの改善として登場した。
我々はkansが任意のBesov関数を、有界な開あるいはフラクタルな領域上で$Bs_p,q(mathcalX)$で最適に近似できることを示す。
我々は,残留KANモデルの標本複雑性に関する次元自由推定で近似保証を補完する。
論文 参考訳(メタデータ) (2025-04-21T14:02:59Z) - Smoothed Analysis for Learning Concepts with Low Intrinsic Dimension [17.485243410774814]
教師付き学習の伝統的なモデルでは、学習者の目標は、あるクラスから最も適した概念の競争的($epsilon$以内)な仮説を出力することである。
学習者が最高の無知としか競合しないスムーズな分析フレームワークを導入する。
時間内に$k$-halfspacesの交点を前向きに学習する最初のアルゴリズムを得る。
論文 参考訳(メタデータ) (2024-07-01T04:58:36Z) - Projection by Convolution: Optimal Sample Complexity for Reinforcement Learning in Continuous-Space MDPs [56.237917407785545]
本稿では,円滑なベルマン作用素を持つ連続空間マルコフ決定過程(MDP)の一般クラスにおいて,$varepsilon$-optimal Policyを学習する問題を考察する。
我々のソリューションの鍵となるのは、調和解析のアイデアに基づく新しい射影技術である。
我々の結果は、連続空間 MDP における2つの人気と矛盾する視点のギャップを埋めるものである。
論文 参考訳(メタデータ) (2024-05-10T09:58:47Z) - Adversarial Contextual Bandits Go Kernelized [21.007410990554522]
本研究では、ヒルベルト核空間に属する損失関数を組み込むことにより、逆線形文脈帯域におけるオンライン学習の問題を一般化する。
本稿では,損失関数を推定し,ほぼ最適の後悔の保証を再現するための新しい楽観的偏り推定器を提案する。
論文 参考訳(メタデータ) (2023-10-02T19:59:39Z) - Computing Anti-Derivatives using Deep Neural Networks [3.42658286826597]
本稿では,Deep Neural Network アーキテクチャを用いて,関数のクローズドフォーム・アンチデリバティブを求めるアルゴリズムを提案する。
すべての積分に対して1つの方法を用いることで、我々のアルゴリズムは任意の精度で反微分を近似することができると主張している。
本稿では,楕円積分,フェルミ・ディラック積分,累積分布関数の閉形式式を得るための手法の適用について述べる。
論文 参考訳(メタデータ) (2022-09-19T15:16:47Z) - Near-Optimal No-Regret Learning for General Convex Games [121.50979258049135]
一般凸およびコンパクト戦略集合に対して後悔が得られることを示す。
我々の力学は、適度にエンハンリフトされた空間上の楽観的な従順化バウンドのインスタンス化にある。
先行結果が適用される特殊な場合であっても、我々のアルゴリズムは最先端の後悔よりも改善される。
論文 参考訳(メタデータ) (2022-06-17T12:58:58Z) - Last iterate convergence of SGD for Least-Squares in the Interpolation
regime [19.05750582096579]
基本最小二乗構成におけるノイズレスモデルについて検討する。
最適予測器が完全に入力に適合すると仮定し、$langletheta_*, phi(X) rangle = Y$, ここで$phi(X)$は無限次元の非線型特徴写像を表す。
論文 参考訳(メタデータ) (2021-02-05T14:02:20Z) - Byzantine-Resilient Non-Convex Stochastic Gradient Descent [61.6382287971982]
敵対的レジリエントな分散最適化。
機械は独立して勾配を計算し 協力することができます
私達のアルゴリズムは新しい集中の技術およびサンプル複雑性に基づいています。
それは非常に実用的です:それはないときすべての前の方法の性能を改善します。
セッティングマシンがあります。
論文 参考訳(メタデータ) (2020-12-28T17:19:32Z) - Finding Global Minima via Kernel Approximations [90.42048080064849]
関数評価のみに基づく滑らかな関数のグローバル最小化を考える。
本稿では,近似関数を共同でモデル化し,大域的最小値を求める手法を検討する。
論文 参考訳(メタデータ) (2020-12-22T12:59:30Z) - Stochastic Flows and Geometric Optimization on the Orthogonal Group [52.50121190744979]
直交群 $O(d)$ 上の幾何駆動最適化アルゴリズムの新しいクラスを示す。
提案手法は,深層,畳み込み,反復的なニューラルネットワーク,強化学習,フロー,メトリック学習など,機械学習のさまざまな分野に適用可能であることを示す。
論文 参考訳(メタデータ) (2020-03-30T15:37:50Z) - Complexity of Finding Stationary Points of Nonsmooth Nonconvex Functions [84.49087114959872]
非滑らかで非滑らかな関数の定常点を見つけるための最初の非漸近解析を提供する。
特に、アダマール半微分可能函数(おそらく非滑らか関数の最大のクラス)について研究する。
論文 参考訳(メタデータ) (2020-02-10T23:23:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。