論文の概要: Robust Risk-Aware Option Hedging
- arxiv url: http://arxiv.org/abs/2303.15216v2
- Date: Tue, 18 Apr 2023 11:03:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-19 17:28:54.142521
- Title: Robust Risk-Aware Option Hedging
- Title(参考訳): ロバストなリスクアウェアオプションヘッジ
- Authors: David Wu, Sebastian Jaimungal
- Abstract要約: 本稿では、経路依存型金融デリバティブに関連するリスクを軽減するために、ロバストリスク認識強化学習(RL)の可能性を示す。
この手法をバリアオプションのヘッジに適用し、エージェントがリスク回避からリスク探究へと移行するにつれて、最適なヘッジ戦略が歪曲する方法について強調する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The objectives of option hedging/trading extend beyond mere protection
against downside risks, with a desire to seek gains also driving agent's
strategies. In this study, we showcase the potential of robust risk-aware
reinforcement learning (RL) in mitigating the risks associated with
path-dependent financial derivatives. We accomplish this by leveraging a policy
gradient approach that optimises robust risk-aware performance criteria. We
specifically apply this methodology to the hedging of barrier options, and
highlight how the optimal hedging strategy undergoes distortions as the agent
moves from being risk-averse to risk-seeking. As well as how the agent
robustifies their strategy. We further investigate the performance of the hedge
when the data generating process (DGP) varies from the training DGP, and
demonstrate that the robust strategies outperform the non-robust ones.
- Abstract(参考訳): オプションヘッジ/トレーディングの目標は、単に下方リスクに対する保護以上のものであって、利得を求める欲求もまたエージェントの戦略を推進している。
本研究では,経路依存的金融デリバティブに関連するリスクを軽減するための,堅牢なリスクアウェア強化学習(rl)の可能性を示す。
我々は、ロバストなリスク対応性能基準を最適化するポリシー勾配アプローチを活用することで、これを実現する。
本稿では, この手法をバリアオプションのヘッジに適用し, エージェントがリスク回避からリスク探究へと移行するにつれて, 最適なヘッジ戦略が歪曲することを示す。
エージェントが戦略を強固にする方法です
さらに、データ生成プロセス(DGP)がトレーニングDGPと異なる場合のヘッジの性能について検討し、ロバストでないものよりもロバストな戦略が優れていることを示す。
関連論文リスト
- Can Perturbations Help Reduce Investment Risks? Risk-Aware Stock
Recommendation via Split Variational Adversarial Training [44.7991257631318]
本稿では,リスクを意識したストックレコメンデーションのための新しいSVAT法を提案する。
株式レコメンデーションモデルのボラティリティを下げることで、SVATは投資リスクを効果的に低減し、リスク調整利益の点で最先端のベースラインを30%以上上回ります。
論文 参考訳(メタデータ) (2023-04-20T12:10:12Z) - A Survey of Risk-Aware Multi-Armed Bandits [84.67376599822569]
我々は、様々な利害リスク対策をレビューし、その特性についてコメントする。
我々は,探索と探索のトレードオフが現れる,後悔の最小化設定のためのアルゴリズムを検討する。
今後の研究の課題と肥大化についてコメントし、締めくくりに締めくくります。
論文 参考訳(メタデータ) (2022-05-12T02:20:34Z) - Efficient Risk-Averse Reinforcement Learning [79.61412643761034]
リスク逆強化学習(RL)では、リターンのリスク測定を最適化することが目標である。
特定の条件下では、これは必然的に局所最適障壁につながることを証明し、それを回避するためのソフトリスク機構を提案する。
迷路ナビゲーション,自律運転,資源配分ベンチマークにおいて,リスク回避の改善を示す。
論文 参考訳(メタデータ) (2022-05-10T19:40:52Z) - Reinforcement learning for options on target volatility funds [0.0]
我々は、目標ボラティリティ戦略(TVS)に基づくリスクの高い証券のヘッジによる資金調達コストの上昇に対処する。
我々はこの問題をブラック・アンド・ショールズ(BS)のシナリオで解析的に解いた。
次に、局所ボラティリティ(LV)モデルの下で最も保守的な価格につながる資金組成を決定するために強化学習(RL)技術を使用します。
論文 参考訳(メタデータ) (2021-12-03T10:55:11Z) - Robust Risk-Aware Reinforcement Learning [0.0]
本稿では、リスク認識性能基準の堅牢な最適化のための強化学習(RL)手法を提案する。
ランク依存予測ユーティリティ(RDEU)を用いて政策の価値を評価する。
モデル不確実性に対する最適ポリシーを確固たるものにするために、我々は、その分布ではなく、ワッサーシュタイン球の内部にある最悪の分布によってポリシーを評価する。
論文 参考訳(メタデータ) (2021-08-23T20:56:34Z) - Policy Gradient Bayesian Robust Optimization for Imitation Learning [49.881386773269746]
我々は、期待される性能とリスクのバランスをとるために、新しいポリシー勾配スタイルのロバスト最適化手法PG-BROILを導出する。
その結果,PG-BROILはリスクニュートラルからリスク・アバースまでの行動のファミリを創出できる可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-11T16:49:15Z) - Risk-Averse Offline Reinforcement Learning [46.383648750385575]
高度なアプリケーションでRL(Training Reinforcement Learning)エージェントを訓練することは、探索に伴うリスクのため、あまりにも禁じられている可能性がある。
O-RAAC(Offline Risk-Averse Actor-Critic)は,完全オフライン環境でリスク-Averseポリシーを学習可能なモデルフリーRLアルゴリズムである。
論文 参考訳(メタデータ) (2021-02-10T10:27:49Z) - Time your hedge with Deep Reinforcement Learning [0.0]
深層強化学習(DRL)は、市場情報とヘッジ戦略の割り当て決定の間のダイナミックな依存関係を作成することで、この課題に対処することができる。
i)行動決定に追加の文脈情報を使用し、(ii)共通の資産運用者の1日のラグ転倒を考慮し、ヘッジの再均衡を図るための観察と行動の間に1期間の遅れがあり、(iii)アンカードウォークフォワードトレーニングと呼ばれる反復的な試験方法により、安定性とロバスト性の観点から完全にテストされており、(iv)時系列のkフォールドクロスバリデーションと同様に、ヘッジの活用を可能にする。
論文 参考訳(メタデータ) (2020-09-16T06:43:41Z) - Mean-Variance Policy Iteration for Risk-Averse Reinforcement Learning [75.17074235764757]
割引無限地平線MDPにおけるリスク・アバース制御の枠組みを提案する。
MVPIは、政策評価方法やリスクニュートラル制御手法を棚から外すためのリスク・アバース制御に投入できる点において、非常に柔軟性がある。
この柔軟性は、リスク中立制御とリスク逆制御のギャップを減らし、新しい拡張MDPの開発によって達成される。
論文 参考訳(メタデータ) (2020-04-22T22:23:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。