論文の概要: Chaotic Hedging with Iterated Integrals and Neural Networks
- arxiv url: http://arxiv.org/abs/2209.10166v1
- Date: Wed, 21 Sep 2022 07:57:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-09-22 16:09:50.357177
- Title: Chaotic Hedging with Iterated Integrals and Neural Networks
- Title(参考訳): 反復積分とニューラルネットワークを用いたカオスヘッジ
- Authors: Ariel Neufeld, Philipp Schmocker
- Abstract要約: すべての$p$-可積分函数が、[1,infty)$の$pに対して、基礎となる過程の反復積分の和として表されることを示す。
また、すべての金融デリバティブが$Lp$-senseで任意に近似可能であることも示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we extend the Wiener-Ito chaos decomposition to the class of
diffusion processes, whose drift and diffusion coefficient are of linear
growth. By omitting the orthogonality in the chaos expansion, we are able to
show that every $p$-integrable functional, for $p \in [1,\infty)$, can be
represented as sum of iterated integrals of the underlying process. Using a
truncated sum of this expansion and (possibly random) neural networks for the
integrands, whose parameters are learned in a machine learning setting, we show
that every financial derivative can be approximated arbitrarily well in the
$L^p$-sense. Moreover, the hedging strategy of the approximating financial
derivative can be computed in closed form.
- Abstract(参考訳): 本稿では,Wiener-Itoカオス分解を,線形成長のドリフトと拡散係数を持つ拡散過程のクラスに拡張する。
カオス展開における直交性を省略することで、すべての$p$-可積分汎函数(英語版)($p \in [1,\infty)$)が基底プロセスの反復積分の和として表現できることを示すことができる。
この拡張と、機械学習環境でパラメータを学習するインテグレードのための(おそらくランダムな)ニューラルネットワークの切り詰められた和を用いて、すべての金融デリバティブが$L^p$-senseで任意に近似可能であることを示す。
また、近似金融デリバティブのヘッジ戦略を閉じた形で計算することができる。
関連論文リスト
- Robust learning of halfspaces under log-concave marginals [6.852292115526837]
線形しきい値関数を学習し、境界体積$O(r+varepsilon)$の分類子を半径摂動$r$で返すアルゴリズムを与える。
dtildeO(1/varepsilon2)$の時間とサンプルの複雑さはブール回帰の複雑さと一致する。
論文 参考訳(メタデータ) (2025-05-19T20:12:16Z) - Kolmogorov-Arnold Networks: Approximation and Learning Guarantees for Functions and their Derivatives [8.517406772939292]
Kolmogorov-Arnold Networks (KAN) は、ほとんどのディープラーニングフレームワークのバックボーンの改善として登場した。
我々はkansが任意のBesov関数を、有界な開あるいはフラクタルな領域上で$Bs_p,q(mathcalX)$で最適に近似できることを示す。
我々は,残留KANモデルの標本複雑性に関する次元自由推定で近似保証を補完する。
論文 参考訳(メタデータ) (2025-04-21T14:02:59Z) - Towards a Sharp Analysis of Offline Policy Learning for $f$-Divergence-Regularized Contextual Bandits [49.96531901205305]
我々は$f$-divergence-regularized offline policy learningを分析する。
逆Kullback-Leibler (KL) の発散に対して、単極集中性の下での最初の$tildeO(epsilon-1)$サンプル複雑性を与える。
これらの結果は,$f$-divergence-regularized policy learningの包括的理解に向けて大きな一歩を踏み出したものと考えられる。
論文 参考訳(メタデータ) (2025-02-09T22:14:45Z) - More on the Operator Space Entanglement (OSE): Rényi OSE, revivals, and integrability breaking [0.0]
我々は、R'enyi Operator Spaceanglement(OSE$)エントロピー$S_n$のいくつかの1次元可積分およびカオスモデルに対するダイナミクスについて検討する。
R'enyi $OSE$ entropies of diagonal operator with nonzero trace saturate at long time。
有限サイズの可積分系では、$S_n$は強いリバイバルを示し、可積分性が破られたときに洗い流される。
論文 参考訳(メタデータ) (2024-10-24T17:17:29Z) - Smoothed Analysis for Learning Concepts with Low Intrinsic Dimension [17.485243410774814]
教師付き学習の伝統的なモデルでは、学習者の目標は、あるクラスから最も適した概念の競争的($epsilon$以内)な仮説を出力することである。
学習者が最高の無知としか競合しないスムーズな分析フレームワークを導入する。
時間内に$k$-halfspacesの交点を前向きに学習する最初のアルゴリズムを得る。
論文 参考訳(メタデータ) (2024-07-01T04:58:36Z) - Projection by Convolution: Optimal Sample Complexity for Reinforcement Learning in Continuous-Space MDPs [56.237917407785545]
本稿では,円滑なベルマン作用素を持つ連続空間マルコフ決定過程(MDP)の一般クラスにおいて,$varepsilon$-optimal Policyを学習する問題を考察する。
我々のソリューションの鍵となるのは、調和解析のアイデアに基づく新しい射影技術である。
我々の結果は、連続空間 MDP における2つの人気と矛盾する視点のギャップを埋めるものである。
論文 参考訳(メタデータ) (2024-05-10T09:58:47Z) - Adversarial Contextual Bandits Go Kernelized [21.007410990554522]
本研究では、ヒルベルト核空間に属する損失関数を組み込むことにより、逆線形文脈帯域におけるオンライン学習の問題を一般化する。
本稿では,損失関数を推定し,ほぼ最適の後悔の保証を再現するための新しい楽観的偏り推定器を提案する。
論文 参考訳(メタデータ) (2023-10-02T19:59:39Z) - A note on $L^1$-Convergence of the Empiric Minimizer for unbounded
functions with fast growth [0.0]
V : mathbbRd to mathbbR$ coercive に対して、経験的最小値の$L1$-distance の収束率について検討する。
一般に、高速な成長を持つ非有界函数に対しては、収束率は上述の$a_n n-1/q$で制限され、$q$は潜在確率変数の次元である。
論文 参考訳(メタデータ) (2023-03-08T08:46:13Z) - Universality in the tripartite information after global quenches:
(generalised) quantum XY models [0.0]
我々は、R'enyi-$alpha$ tripartite information $I_3(alpha)$ 定常状態における3つの隣接部分系が、等質状態と二成分状態の両方からの非相互作用スピン鎖における大域的クエンチの後に現れると考える。
我々は、$I_3(alpha)$が無限長の極限においてもゼロではないような設定を特定し、はしご上の自由フェルミオン場の記述を効果的に量子場理論で記述する。
論文 参考訳(メタデータ) (2023-02-02T18:50:42Z) - Mind the gap: Achieving a super-Grover quantum speedup by jumping to the
end [114.3957763744719]
本稿では,数種類のバイナリ最適化問題に対して,厳密な実行保証を有する量子アルゴリズムを提案する。
このアルゴリズムは、$n$非依存定数$c$に対して、時間で$O*(2(0.5-c)n)$の最適解を求める。
また、$k$-spinモデルからのランダムなインスタンスの多数と、完全に満足あるいはわずかにフラストレーションされた$k$-CSP式に対して、文 (a) がそうであることを示す。
論文 参考訳(メタデータ) (2022-12-03T02:45:23Z) - Computing Anti-Derivatives using Deep Neural Networks [3.42658286826597]
本稿では,Deep Neural Network アーキテクチャを用いて,関数のクローズドフォーム・アンチデリバティブを求めるアルゴリズムを提案する。
すべての積分に対して1つの方法を用いることで、我々のアルゴリズムは任意の精度で反微分を近似することができると主張している。
本稿では,楕円積分,フェルミ・ディラック積分,累積分布関数の閉形式式を得るための手法の適用について述べる。
論文 参考訳(メタデータ) (2022-09-19T15:16:47Z) - Near-Optimal No-Regret Learning for General Convex Games [121.50979258049135]
一般凸およびコンパクト戦略集合に対して後悔が得られることを示す。
我々の力学は、適度にエンハンリフトされた空間上の楽観的な従順化バウンドのインスタンス化にある。
先行結果が適用される特殊な場合であっても、我々のアルゴリズムは最先端の後悔よりも改善される。
論文 参考訳(メタデータ) (2022-06-17T12:58:58Z) - A Law of Robustness beyond Isoperimetry [84.33752026418045]
我々は、任意の分布上でニューラルネットワークパラメータを補間する頑健性の低い$Omega(sqrtn/p)$を証明した。
次に、$n=mathrmpoly(d)$のとき、スムーズなデータに対する過度なパラメータ化の利点を示す。
我々は、$n=exp(omega(d))$ のとき、$O(1)$-Lipschitz の頑健な補間関数の存在を否定する。
論文 参考訳(メタデータ) (2022-02-23T16:10:23Z) - Last iterate convergence of SGD for Least-Squares in the Interpolation
regime [19.05750582096579]
基本最小二乗構成におけるノイズレスモデルについて検討する。
最適予測器が完全に入力に適合すると仮定し、$langletheta_*, phi(X) rangle = Y$, ここで$phi(X)$は無限次元の非線型特徴写像を表す。
論文 参考訳(メタデータ) (2021-02-05T14:02:20Z) - Byzantine-Resilient Non-Convex Stochastic Gradient Descent [61.6382287971982]
敵対的レジリエントな分散最適化。
機械は独立して勾配を計算し 協力することができます
私達のアルゴリズムは新しい集中の技術およびサンプル複雑性に基づいています。
それは非常に実用的です:それはないときすべての前の方法の性能を改善します。
セッティングマシンがあります。
論文 参考訳(メタデータ) (2020-12-28T17:19:32Z) - Finding Global Minima via Kernel Approximations [90.42048080064849]
関数評価のみに基づく滑らかな関数のグローバル最小化を考える。
本稿では,近似関数を共同でモデル化し,大域的最小値を求める手法を検討する。
論文 参考訳(メタデータ) (2020-12-22T12:59:30Z) - Small Covers for Near-Zero Sets of Polynomials and Learning Latent
Variable Models [56.98280399449707]
我々は、s$ of cardinality $m = (k/epsilon)o_d(k1/d)$ に対して $epsilon$-cover が存在することを示す。
構造的結果に基づいて,いくつかの基本的高次元確率モデル隠れ変数の学習アルゴリズムを改良した。
論文 参考訳(メタデータ) (2020-12-14T18:14:08Z) - $k$-Forrelation Optimally Separates Quantum and Classical Query
Complexity [3.4984289152418753]
我々は、$N$ビット上の任意の部分関数は、$q$量子クエリを作れば、ランダムな推測よりも$delta$で計算できることを示した。
我々はまた、$k$-Forrelation問題 -- $q = lceil k/2 rceil$量子クエリで計算できる部分関数 -- を予想した。
論文 参考訳(メタデータ) (2020-08-16T21:26:46Z) - Stochastic Flows and Geometric Optimization on the Orthogonal Group [52.50121190744979]
直交群 $O(d)$ 上の幾何駆動最適化アルゴリズムの新しいクラスを示す。
提案手法は,深層,畳み込み,反復的なニューラルネットワーク,強化学習,フロー,メトリック学習など,機械学習のさまざまな分野に適用可能であることを示す。
論文 参考訳(メタデータ) (2020-03-30T15:37:50Z) - Complexity of Finding Stationary Points of Nonsmooth Nonconvex Functions [84.49087114959872]
非滑らかで非滑らかな関数の定常点を見つけるための最初の非漸近解析を提供する。
特に、アダマール半微分可能函数(おそらく非滑らか関数の最大のクラス)について研究する。
論文 参考訳(メタデータ) (2020-02-10T23:23:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。