論文の概要: A time-stepping deep gradient flow method for option pricing in (rough)
diffusion models
- arxiv url: http://arxiv.org/abs/2403.00746v1
- Date: Fri, 1 Mar 2024 18:46:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-05 16:37:30.555918
- Title: A time-stepping deep gradient flow method for option pricing in (rough)
diffusion models
- Title(参考訳): rough拡散モデルにおけるオプション価格決定のための時間ステップ深勾配流れ法
- Authors: Antonis Papapantoleon and Jasper Rou
- Abstract要約: 拡散モデルにおける欧州オプションの価格設定のための新しいディープラーニングアプローチを開発する。
提案手法は,大額の金銭に対するオプション価格の振舞いを尊重し,オプション価格の既知境界に固執する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We develop a novel deep learning approach for pricing European options in
diffusion models, that can efficiently handle high-dimensional problems
resulting from Markovian approximations of rough volatility models. The option
pricing partial differential equation is reformulated as an energy minimization
problem, which is approximated in a time-stepping fashion by deep artificial
neural networks. The proposed scheme respects the asymptotic behavior of option
prices for large levels of moneyness, and adheres to a priori known bounds for
option prices. The accuracy and efficiency of the proposed method is assessed
in a series of numerical examples, with particular focus in the lifted Heston
model.
- Abstract(参考訳): 拡散モデルにおけるヨーロッパオプションの価格設定のための新しい深層学習手法を開発し,ラフボラティリティモデルのマルコフ近似から生じる高次元問題に対して効率的に対処する。
オプション価格の偏微分方程式はエネルギー最小化問題として再構成され、ディープニューラルネットワークによって時間ステップ方式で近似される。
提案手法は,オプション価格の高水準に対する漸近的振る舞いを尊重し,オプション価格の既知境界に固執する。
提案手法の精度と効率を一連の数値例で評価し,特に揚力ヘストンモデルに着目した。
関連論文リスト
- Jump Diffusion-Informed Neural Networks with Transfer Learning for Accurate American Option Pricing under Data Scarcity [1.998862666797032]
本研究は,6つの相互関連モジュールからなる米国オプション価格の包括的枠組みを提案する。
このフレームワークは非線形最適化アルゴリズム、解析モデルと数値モデル、ニューラルネットワークを組み合わせて価格性能を向上させる。
提案したモデルでは、より深い収益源オプションの価格設定において優れた性能を示す。
論文 参考訳(メタデータ) (2024-09-26T17:50:12Z) - Total Uncertainty Quantification in Inverse PDE Solutions Obtained with Reduced-Order Deep Learning Surrogate Models [50.90868087591973]
機械学習サロゲートモデルを用いて得られた逆PDE解の総不確かさを近似したベイズ近似法を提案する。
非線型拡散方程式に対する反復的アンサンブルスムーズおよび深層アンサンブル法との比較により,提案手法を検証した。
論文 参考訳(メタデータ) (2024-08-20T19:06:02Z) - Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - A deep implicit-explicit minimizing movement method for option pricing
in jump-diffusion models [0.0]
我々は、ジャンプ拡散力学に従う資産に書かれた欧州のバスケットオプションの価格設定のための新しいディープラーニングアプローチを開発する。
オプション価格問題は部分積分微分方程式として定式化され、これは新しい暗黙的な最小化運動タイムステッピング手法によって近似される。
論文 参考訳(メタデータ) (2024-01-12T18:21:01Z) - Generative Fractional Diffusion Models [53.36835573822926]
我々は,その基礎となる力学に分数拡散過程を利用する,最初の連続時間スコアベース生成モデルを導入する。
実画像データを用いた評価では,GFDMはFIDが低い値で示されるように,画素幅の多様性と画質の向上を実現している。
論文 参考訳(メタデータ) (2023-10-26T17:53:24Z) - Fast Diffusion EM: a diffusion model for blind inverse problems with
application to deconvolution [0.0]
現在の手法では、劣化が知られており、復元と多様性の点で印象的な結果をもたらすと仮定している。
本研究では、これらのモデルの効率を活用し、復元された画像と未知のパラメータを共同で推定する。
本手法は,拡散モデルから抽出したサンプルを用いて,問題の対数類似度を近似し,未知のモデルパラメータを推定する方法とを交互に比較する。
論文 参考訳(メタデータ) (2023-09-01T06:47:13Z) - Planning with Diffusion for Flexible Behavior Synthesis [125.24438991142573]
我々は、できるだけ多くの軌道最適化パイプラインをモデリング問題に折り畳むことがどう見えるか検討する。
我々の技術的アプローチの核心は、軌道を反復的にデノベーションすることで計画する拡散確率モデルにある。
論文 参考訳(メタデータ) (2022-05-20T07:02:03Z) - A Variational Inference Approach to Inverse Problems with Gamma
Hyperpriors [60.489902135153415]
本稿では,ガンマハイパープライヤを用いた階層的逆問題に対する変分反復交替方式を提案する。
提案した変分推論手法は正確な再構成を行い、意味のある不確実な定量化を提供し、実装が容易である。
論文 参考訳(メタデータ) (2021-11-26T06:33:29Z) - Neural Options Pricing [0.0]
ニューラルSDEを普遍的伊藤プロセス近似器として扱う。
理論的オプションの価格を数値的に計算する。
学習モデルによって示唆されるオプション価格の誤差は、ワッサーシュタイン距離計量によって境界付けられると推測される。
論文 参考訳(メタデータ) (2021-05-27T17:22:30Z) - Arbitrage-free neural-SDE market models [6.145654286950278]
我々は、基礎となる金融制約を尊重する欧州オプションブックの非パラメトリックモデルを開発する。
株価とオプション価格の離散時系列データからモデルを学習する推論問題について検討する。
我々は,SDEシステムのドリフトと拡散のための関数近似器としてニューラルネットワークを用いる。
論文 参考訳(メタデータ) (2021-05-24T00:53:10Z) - Learnable Bernoulli Dropout for Bayesian Deep Learning [53.79615543862426]
Learnable Bernoulli Dropout (LBD) は、他のモデルパラメータと共に最適化されたパラメータとしてドロップアウト率を考慮する新しいモデルに依存しないドロップアウトスキームである。
LBDは画像分類とセマンティックセグメンテーションにおける精度と不確実性の推定を改善する。
論文 参考訳(メタデータ) (2020-02-12T18:57:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。