論文の概要: Time your hedge with Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2009.14136v2
- Date: Mon, 9 Nov 2020 07:56:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 23:46:49.328031
- Title: Time your hedge with Deep Reinforcement Learning
- Title(参考訳): 深層強化学習によるヘッジ時間
- Authors: Eric Benhamou, David Saltiel, Sandrine Ungari, Abhishek Mukhopadhyay
- Abstract要約: 深層強化学習(DRL)は、市場情報とヘッジ戦略の割り当て決定の間のダイナミックな依存関係を作成することで、この課題に対処することができる。
i)行動決定に追加の文脈情報を使用し、(ii)共通の資産運用者の1日のラグ転倒を考慮し、ヘッジの再均衡を図るための観察と行動の間に1期間の遅れがあり、(iii)アンカードウォークフォワードトレーニングと呼ばれる反復的な試験方法により、安定性とロバスト性の観点から完全にテストされており、(iv)時系列のkフォールドクロスバリデーションと同様に、ヘッジの活用を可能にする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Can an asset manager plan the optimal timing for her/his hedging strategies
given market conditions? The standard approach based on Markowitz or other more
or less sophisticated financial rules aims to find the best portfolio
allocation thanks to forecasted expected returns and risk but fails to fully
relate market conditions to hedging strategies decision. In contrast, Deep
Reinforcement Learning (DRL) can tackle this challenge by creating a dynamic
dependency between market information and hedging strategies allocation
decisions. In this paper, we present a realistic and augmented DRL framework
that: (i) uses additional contextual information to decide an action, (ii) has
a one period lag between observations and actions to account for one day lag
turnover of common asset managers to rebalance their hedge, (iii) is fully
tested in terms of stability and robustness thanks to a repetitive train test
method called anchored walk forward training, similar in spirit to k fold cross
validation for time series and (iv) allows managing leverage of our hedging
strategy. Our experiment for an augmented asset manager interested in sizing
and timing his hedges shows that our approach achieves superior returns and
lower risk.
- Abstract(参考訳): 資産運用担当者は、市場条件を考慮したヘッジ戦略の最適なタイミングを計画できるか?
Markowitzなどの高度な金融ルールに基づく標準的なアプローチは、予想されるリターンとリスクにより、最高のポートフォリオアロケーションを見つけることを目的としているが、市場状況と戦略決定のヘッジに完全に関連しない。
対照的に、深層強化学習(drl)は、市場情報と戦略割り当ての決定をヘッジすることで、この課題に対処できる。
本稿では,現実的で拡張されたDRLフレームワークについて述べる。
(i)追加の文脈情報を用いて行動を決定する。
(ii)普通資産運用者のヘッジ再均衡の1日遅れを考慮し、観察と行動の間には1つの期間遅れがある。
(iii) アンカード・ウォークフォワード・トレーニング(anchored walk forward training)と呼ばれる反復列車試験法によって、安定性とロバスト性の観点から完全にテストされている。
(iv)ヘッジ戦略の活用管理を可能にします。
ヘッジファンドの規模とタイミングに関心のある拡張資産運用者に対する実験は、我々のアプローチが優れたリターンと低いリスクを達成することを示している。
関連論文リスト
- From Bandits Model to Deep Deterministic Policy Gradient, Reinforcement
Learning with Contextual Information [4.42532447134568]
本研究では,文脈情報による問題を克服するために2つの手法を用いる。
量的市場における戦略的トレーディングを検討するため、我々はCPPI(Constant proportion portfolio Insurance)と呼ばれる初期の金融トレーディング戦略をDDPG(Deep Deterministic Policy gradient)に統合した。
実験の結果,両手法が強化学習の進行を加速し,最適解が得られることがわかった。
論文 参考訳(メタデータ) (2023-10-01T11:25:20Z) - Robust Risk-Aware Option Hedging [2.405471533561618]
本稿では、経路依存型金融デリバティブに関連するリスクを軽減するために、ロバストリスク認識強化学習(RL)の可能性を示す。
この手法をバリアオプションのヘッジに適用し、エージェントがリスク回避からリスク探究へと移行するにつれて、最適なヘッジ戦略が歪曲する方法について強調する。
論文 参考訳(メタデータ) (2023-03-27T13:57:13Z) - Mastering the Unsupervised Reinforcement Learning Benchmark from Pixels [112.63440666617494]
強化学習アルゴリズムは成功するが、エージェントと環境の間の大量の相互作用を必要とする。
本稿では,教師なしモデルベースRLを用いてエージェントを事前学習する手法を提案する。
我々はReal-Word RLベンチマークにおいて、適応中の環境摂動に対する抵抗性を示唆し、堅牢な性能を示す。
論文 参考訳(メタデータ) (2022-09-24T14:22:29Z) - MetaTrader: An Reinforcement Learning Approach Integrating Diverse
Policies for Portfolio Optimization [17.759687104376855]
ポートフォリオ管理のための新しい2段階的アプローチを提案する。
最初の段階では、強化学習フレームワークに模倣学習を組み込む。
第2段階では、メタ政治を学び、市場状況を認識し、従うべき最も適切な学習方針を決定する。
論文 参考訳(メタデータ) (2022-09-01T07:58:06Z) - Reinforcement learning for options on target volatility funds [0.0]
我々は、目標ボラティリティ戦略(TVS)に基づくリスクの高い証券のヘッジによる資金調達コストの上昇に対処する。
我々はこの問題をブラック・アンド・ショールズ(BS)のシナリオで解析的に解いた。
次に、局所ボラティリティ(LV)モデルの下で最も保守的な価格につながる資金組成を決定するために強化学習(RL)技術を使用します。
論文 参考訳(メタデータ) (2021-12-03T10:55:11Z) - Deep Learning Statistical Arbitrage [0.0]
本稿では,統計的仲裁のための統一的な概念枠組みを提案し,新しいディープラーニングソリューションを開発した。
我々は、条件付き遅延資産価格要素から残余ポートフォリオとして類似資産の仲裁ポートフォリオを構築する。
我々は、これらの残余ポートフォリオの時系列信号を、最も強力な機械学習時系列ソリューションの1つを用いて抽出する。
論文 参考訳(メタデータ) (2021-06-08T00:48:25Z) - Universal Trading for Order Execution with Oracle Policy Distillation [99.57416828489568]
本稿では,不完全な市場状態と注文実行のための最適な行動シーケンスとのギャップを埋める,新たなユニバーサル取引ポリシー最適化フレームワークを提案する。
本研究の枠組みは,完全情報を持つ託宣教師による実践的最適実行に向けて,共通政策の学習を指導する上で有効であることを示す。
論文 参考訳(メタデータ) (2021-01-28T05:52:18Z) - Robust Reinforcement Learning on State Observations with Learned Optimal
Adversary [86.0846119254031]
逆摂動状態観測による強化学習の堅牢性について検討した。
固定されたエージェントポリシーでは、摂動状態の観測に最適な敵を見つけることができる。
DRLの設定では、これは以前のものよりもはるかに強い学習された敵対を介してRLエージェントに新しい経験的敵対攻撃につながります。
論文 参考訳(メタデータ) (2021-01-21T05:38:52Z) - Learning Strategies in Decentralized Matching Markets under Uncertain
Preferences [91.3755431537592]
エージェントの選好が不明な場合,共有資源の不足の設定における意思決定の問題について検討する。
我々のアプローチは、再生されたカーネルヒルベルト空間における好みの表現に基づいている。
エージェントの期待した利益を最大化する最適な戦略を導出する。
論文 参考訳(メタデータ) (2020-10-29T03:08:22Z) - A Deep Reinforcement Learning Framework for Continuous Intraday Market
Bidding [69.37299910149981]
再生可能エネルギー源統合の成功の鍵となる要素は、エネルギー貯蔵の利用である。
欧州の継続的な日内市場におけるエネルギー貯蔵の戦略的関与をモデル化するための新しい枠組みを提案する。
本アルゴリズムの分散バージョンは, サンプル効率のため, この問題を解決するために選択される。
その結果, エージェントは, ベンチマーク戦略よりも平均的収益率の高い政策に収束することが示唆された。
論文 参考訳(メタデータ) (2020-04-13T13:50:13Z) - Reinforcement-Learning based Portfolio Management with Augmented Asset
Movement Prediction States [71.54651874063865]
ポートフォリオマネジメント(PM)は、最大利益や最小リスクといった投資目標を達成することを目的としている。
本稿では,PMのための新しいステート拡張RLフレームワークであるSARLを提案する。
当社の枠組みは, 金融PMにおける2つのユニークな課題に対処することを目的としている。(1) データの異種データ -- 資産毎の収集情報は通常, 多様性, ノイズ, 不均衡(ニュース記事など), (2) 環境の不確実性 -- 金融市場は多様で非定常である。
論文 参考訳(メタデータ) (2020-02-09T08:10:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。