論文の概要: Optimizing Trading Strategies in Quantitative Markets using Multi-Agent
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2303.11959v2
- Date: Fri, 22 Dec 2023 04:59:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-25 18:55:01.369482
- Title: Optimizing Trading Strategies in Quantitative Markets using Multi-Agent
Reinforcement Learning
- Title(参考訳): マルチエージェント強化学習による量的市場における取引戦略の最適化
- Authors: Hengxi Zhang, Zhendong Shi, Yuanquan Hu, Wenbo Ding, Ercan E.
Kuruoglu, Xiao-Ping Zhang
- Abstract要約: 本稿では、固定比率ポートフォリオ保険(CPPI)と時間不変ポートフォリオ保護(TIPP)の2つの確立された金融取引戦略の統合について検討する。
本稿では,量的市場における戦略的取引の探索に適した2つの新しいマルチエージェントRL(MARL)手法,CPPI-MADDPGとTIPP-MADDPGを紹介する。
実験の結果,CPPI-MADDPGとTIPP-MADDPGの戦略は従来よりも一貫して優れていた。
- 参考スコア(独自算出の注目度): 11.556829339947031
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quantitative markets are characterized by swift dynamics and abundant
uncertainties, making the pursuit of profit-driven stock trading actions
inherently challenging. Within this context, reinforcement learning (RL), which
operates on a reward-centric mechanism for optimal control, has surfaced as a
potentially effective solution to the intricate financial decision-making
conundrums presented. This paper delves into the fusion of two established
financial trading strategies, namely the constant proportion portfolio
insurance (CPPI) and the time-invariant portfolio protection (TIPP), with the
multi-agent deep deterministic policy gradient (MADDPG) framework. As a result,
we introduce two novel multi-agent RL (MARL) methods, CPPI-MADDPG and
TIPP-MADDPG, tailored for probing strategic trading within quantitative
markets. To validate these innovations, we implemented them on a diverse
selection of 100 real-market shares. Our empirical findings reveal that the
CPPI-MADDPG and TIPP-MADDPG strategies consistently outpace their traditional
counterparts, affirming their efficacy in the realm of quantitative trading.
- Abstract(参考訳): 量的市場は、迅速なダイナミクスと豊富な不確実性によって特徴づけられ、利益主導の株式取引行動の追求は本質的に困難である。
この文脈の中では、最適制御のための報酬中心のメカニズムで機能する強化学習(RL)が、提示される複雑な金融意思決定の難問に対する潜在的に効果的な解決策として浮上している。
本論文は、固定比率ポートフォリオ保険(CPPI)と時間不変ポートフォリオ保護(TIPP)の2つの確立された金融トレーディング戦略と、マルチエージェントディープ決定主義政策勾配(MADDPG)フレームワークの融合について述べる。
その結果、量的市場における戦略的取引の探索に適した2つの新しいマルチエージェントRL(MARL)手法、CPPI-MADDPGとTIPP-MADDPGを導入した。
これらのイノベーションを検証するため、我々は100のリアルマーケット株を多種多様に選別して実装した。
実証実験の結果,CPPI-MADDPGとTIPP-MADDPGの戦略は従来よりも一貫して優れており,定量取引の分野での有効性が確認された。
関連論文リスト
- Hierarchical Reinforced Trader (HRT): A Bi-Level Approach for Optimizing Stock Selection and Execution [0.9553307596675155]
本稿では,階層強化学習フレームワークを用いた新たなトレーディング戦略である階層強化トレーサ(HRT)を紹介する。
HRTは、戦略的株式選択のためのPPO(Proximal Policy Optimization)ベースのHigh-Level Controller(HLC)をDDPG(Deep Deterministic Policy Gradient)ベースのLow-Level Controller(LLC)と統合する。
論文 参考訳(メタデータ) (2024-10-19T01:29:38Z) - Deep Reinforcement Learning Strategies in Finance: Insights into Asset Holding, Trading Behavior, and Purchase Diversity [0.0]
本稿では、金融資産の保有・取引傾向と、深層強化学習(DRL)アルゴリズムの購入多様性について考察する。
以上の結果から,各DRLアルゴリズムは独自の取引パターンと戦略を示し,A2Cが累積報酬のトップパフォーマーとして出現していることがわかった。
論文 参考訳(メタデータ) (2024-06-29T20:56:58Z) - Deep Reinforcement Learning and Mean-Variance Strategies for Responsible Portfolio Optimization [49.396692286192206]
本研究では,ESG状態と目的を取り入れたポートフォリオ最適化のための深層強化学習について検討する。
以上の結果から,ポートフォリオアロケーションに対する平均分散アプローチに対して,深層強化学習政策が競争力を発揮する可能性が示唆された。
論文 参考訳(メタデータ) (2024-03-25T12:04:03Z) - Local Optimization Achieves Global Optimality in Multi-Agent
Reinforcement Learning [139.53668999720605]
本稿では,各エージェントのローカルポリシーをバニラPPOと同様に更新するマルチエージェントPPOアルゴリズムを提案する。
マルコフゲームにおける標準正則条件と問題依存量により、我々のアルゴリズムはサブリニアレートで大域的最適ポリシーに収束することを示す。
論文 参考訳(メタデータ) (2023-05-08T16:20:03Z) - MetaTrader: An Reinforcement Learning Approach Integrating Diverse
Policies for Portfolio Optimization [17.759687104376855]
ポートフォリオ管理のための新しい2段階的アプローチを提案する。
最初の段階では、強化学習フレームワークに模倣学習を組み込む。
第2段階では、メタ政治を学び、市場状況を認識し、従うべき最も適切な学習方針を決定する。
論文 参考訳(メタデータ) (2022-09-01T07:58:06Z) - Monotonic Improvement Guarantees under Non-stationarity for
Decentralized PPO [66.5384483339413]
我々は,MARL(Multi-Agent Reinforcement Learning)における分散政策の最適化のための新しい単調改善保証を提案する。
本研究では,訓練中のエージェント数に基づいて,独立した比率を限定することにより,信頼領域の制約を原則的に効果的に実施可能であることを示す。
論文 参考訳(メタデータ) (2022-01-31T20:39:48Z) - Deep Q-Learning Market Makers in a Multi-Agent Simulated Stock Market [58.720142291102135]
本稿では,エージェント・ベースの観点から,これらのマーケット・メーカーの戦略に関する研究に焦点をあてる。
模擬株式市場における知的市場マーカー作成のための強化学習(Reinforcement Learning, RL)の適用を提案する。
論文 参考訳(メタデータ) (2021-12-08T14:55:21Z) - A Meta-Method for Portfolio Management Using Machine Learning for
Adaptive Strategy Selection [0.0]
MPMは2つのリスクベースのポートフォリオ割り当て戦略を切り替える方法を学ぶためにXGBoostを使用している。
MPMはシャープ比で測定されるように、優れたサンプル外リスク・リワードプロファイルを有することが示されている。
論文 参考訳(メタデータ) (2021-11-10T20:46:43Z) - Universal Trading for Order Execution with Oracle Policy Distillation [99.57416828489568]
本稿では,不完全な市場状態と注文実行のための最適な行動シーケンスとのギャップを埋める,新たなユニバーサル取引ポリシー最適化フレームワークを提案する。
本研究の枠組みは,完全情報を持つ託宣教師による実践的最適実行に向けて,共通政策の学習を指導する上で有効であることを示す。
論文 参考訳(メタデータ) (2021-01-28T05:52:18Z) - Deep Stock Trading: A Hierarchical Reinforcement Learning Framework for
Portfolio Optimization and Order Execution [26.698261314897195]
ポートフォリオマネジメントのための階層型株取引システム(HRPM)を提案する。
我々は、取引プロセスを取引実行よりもポートフォリオ管理の階層に分解し、対応する政策を訓練する。
HRPMは多くの最先端アプローチに対して大幅な改善を実現している。
論文 参考訳(メタデータ) (2020-12-23T12:09:26Z) - Reinforcement-Learning based Portfolio Management with Augmented Asset
Movement Prediction States [71.54651874063865]
ポートフォリオマネジメント(PM)は、最大利益や最小リスクといった投資目標を達成することを目的としている。
本稿では,PMのための新しいステート拡張RLフレームワークであるSARLを提案する。
当社の枠組みは, 金融PMにおける2つのユニークな課題に対処することを目的としている。(1) データの異種データ -- 資産毎の収集情報は通常, 多様性, ノイズ, 不均衡(ニュース記事など), (2) 環境の不確実性 -- 金融市場は多様で非定常である。
論文 参考訳(メタデータ) (2020-02-09T08:10:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。