論文の概要: Enhancing Deep Hedging of Options with Implied Volatility Surface Feedback Information
- arxiv url: http://arxiv.org/abs/2407.21138v1
- Date: Tue, 30 Jul 2024 18:59:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-01 13:07:45.640642
- Title: Enhancing Deep Hedging of Options with Implied Volatility Surface Feedback Information
- Title(参考訳): 入射揮発性表面フィードバック情報によるオプションの深いヘッジ化
- Authors: Pascal François, Geneviève Gauthier, Frédéric Godin, Carlos Octavio Pérez Mendoza,
- Abstract要約: 本稿では,S&P500 オプションに対する動的ヘッジ方式を提案する。
最適なヘッジ戦略は、訓練性能を向上させる新しいハイブリッドニューラルネットワークアーキテクチャを用いて、ディープポリシー勾配型強化学習アルゴリズムによって得られる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a dynamic hedging scheme for S&P 500 options, where rebalancing decisions are enhanced by integrating information about the implied volatility surface dynamics. The optimal hedging strategy is obtained through a deep policy gradient-type reinforcement learning algorithm, with a novel hybrid neural network architecture improving the training performance. The favorable inclusion of forward-looking information embedded in the volatility surface allows our procedure to outperform several conventional benchmarks such as practitioner and smiled-implied delta hedging procedures, both in simulation and backtesting experiments.
- Abstract(参考訳): 本稿では,S&P500 オプションに対する動的ヘッジ方式を提案する。
最適なヘッジ戦略は、訓練性能を向上させる新しいハイブリッドニューラルネットワークアーキテクチャを用いて、ディープポリシー勾配型強化学習アルゴリズムによって得られる。
ボラティリティサーフェスに埋め込まれた前方視認性情報を含めることで、シミュレーションやバックテスト実験において、実践者や笑顔で実装されたデルタヘッジ手順など、いくつかの従来のベンチマークを上回ります。
関連論文リスト
- Optimal Transport-Based Displacement Interpolation with Data Augmentation for Reduced Order Modeling of Nonlinear Dynamical Systems [0.0]
本稿では,複雑なシステムにおける非線形力学の表現を強化するために,最適輸送理論と変位を利用した新しいリダクション・オーダー・モデル(ROM)を提案する。
複雑なシステム挙動の予測における精度と効率の向上を示し、計算物理学や工学における幅広い応用の可能性を示している。
論文 参考訳(メタデータ) (2024-11-13T16:29:33Z) - Deep Reinforcement Learning for Online Optimal Execution Strategies [49.1574468325115]
本稿では,動的な金融市場における非マルコフ的最適実行戦略の学習に挑戦する。
我々は,Deep Deterministic Policy Gradient(DDPG)に基づく新しいアクター批判アルゴリズムを提案する。
提案アルゴリズムは最適実行戦略の近似に成功していることを示す。
論文 参考訳(メタデータ) (2024-10-17T12:38:08Z) - Q-value Regularized Transformer for Offline Reinforcement Learning [70.13643741130899]
オフライン強化学習(RL)における最先端化のためのQ値正規化変換器(QT)を提案する。
QTはアクション値関数を学習し、条件付きシーケンスモデリング(CSM)のトレーニング損失にアクション値を最大化する用語を統合する
D4RLベンチマークデータセットの実証評価は、従来のDP法やCSM法よりもQTの方が優れていることを示す。
論文 参考訳(メタデータ) (2024-05-27T12:12:39Z) - Latent Variable Representation for Reinforcement Learning [131.03944557979725]
モデルに基づく強化学習のサンプル効率を改善するために、潜在変数モデルが学習、計画、探索をいかに促進するかは理論上、実証上、不明である。
状態-作用値関数に対する潜在変数モデルの表現ビューを提供する。これは、抽出可能な変分学習アルゴリズムと楽観主義/悲観主義の原理の効果的な実装の両方を可能にする。
特に,潜伏変数モデルのカーネル埋め込みを組み込んだUPB探索を用いた計算効率の良い計画アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-17T00:26:31Z) - Guaranteed Conservation of Momentum for Learning Particle-based Fluid
Dynamics [96.9177297872723]
本稿では,学習物理シミュレーションにおける線形運動量を保証する新しい手法を提案する。
我々は、強い制約で運動量の保存を強制し、反対称的な連続的な畳み込み層を通して実現する。
提案手法により,学習シミュレータの物理的精度を大幅に向上させることができる。
論文 参考訳(メタデータ) (2022-10-12T09:12:59Z) - Bag of Tricks for Natural Policy Gradient Reinforcement Learning [87.54231228860495]
我々は,自然政策勾配強化学習のパフォーマンスに影響を及ぼす戦略を実装し,比較した。
提案されたパフォーマンス最適化戦略の収集は、MuJuCoコントロールベンチマークにおいて、結果を86%から181%改善することができる。
論文 参考訳(メタデータ) (2022-01-22T17:44:19Z) - Model-based Meta Reinforcement Learning using Graph Structured Surrogate
Models [40.08137765886609]
グラフ構造化サーロゲートモデル (GSSM) と呼ばれるモデルが, 環境ダイナミクス予測における最先端の手法を上回っていることを示した。
当社のアプローチでは,テスト時間ポリシの勾配最適化を回避して,デプロイメント中の高速実行を実現しつつ,高いリターンを得ることができる。
論文 参考訳(メタデータ) (2021-02-16T17:21:55Z) - Global optimality of softmax policy gradient with single hidden layer
neural networks in the mean-field regime [10.882573368659516]
本研究では,無限水平割引マルコフ決定過程におけるソフトマックスポリシと非線形関数近似を用いたポリシ最適化の問題点について検討する。
エントロピー正則化による探索が奨励されるとき、我々は平均場状態におけるトレーニングのダイナミクス、例えば、広い単一の隠蔽層ニューラルネットワークの挙動をモデル化することに集中する。
論文 参考訳(メタデータ) (2020-10-22T16:47:22Z) - Green Simulation Assisted Reinforcement Learning with Model Risk for
Biomanufacturing Learning and Control [3.0657293044976894]
バイオ医薬品製造は、複雑さ、高い可変性、長いリードタイム、基礎となるシステムプロセスに関する限られた歴史的データや知識など、重要な課題に直面している。
これらの課題に対処するため,オンライン学習のプロセス支援と動的意思決定の指導を支援するため,グリーンシミュレーションを用いたモデルベース強化学習を提案する。
論文 参考訳(メタデータ) (2020-06-17T14:59:13Z) - SAMBA: Safe Model-Based & Active Reinforcement Learning [59.01424351231993]
SAMBAは、確率論的モデリング、情報理論、統計学といった側面を組み合わせた安全な強化学習のためのフレームワークである。
我々は,低次元および高次元の状態表現を含む安全な力学系ベンチマークを用いて,アルゴリズムの評価を行った。
アクティブなメトリクスと安全性の制約を詳細に分析することで,フレームワークの有効性を直感的に評価する。
論文 参考訳(メタデータ) (2020-06-12T10:40:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。