論文の概要: Strategic Trading in Quantitative Markets through Multi-Agent
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2303.11959v1
- Date: Wed, 15 Mar 2023 11:47:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-25 03:28:59.716040
- Title: Strategic Trading in Quantitative Markets through Multi-Agent
Reinforcement Learning
- Title(参考訳): マルチエージェント強化学習による量的市場の戦略的取引
- Authors: Hengxi Zhang, Zhendong Shi, Yuanquan Hu, Wenbo Ding, Ercan E.
Kuruoglu, Xiao-Ping Zhang
- Abstract要約: 強化学習は最適制御のための報酬指向のアプローチである。
本稿では,CPPI-MADDPGとTIPP-MADDPGの2つの方法を提案する。
実験の結果,CPPI-MADDPGとTIPP-MADDPGのアプローチは従来の手法よりも優れていた。
- 参考スコア(独自算出の注目度): 11.996598858610758
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to the rapid dynamics and a mass of uncertainties in the quantitative
markets, the issue of how to take appropriate actions to make profits in stock
trading remains a challenging one. Reinforcement learning (RL), as a
reward-oriented approach for optimal control, has emerged as a promising method
to tackle this strategic decision-making problem in such a complex financial
scenario. In this paper, we integrated two prior financial trading strategies
named constant proportion portfolio insurance (CPPI) and time-invariant
portfolio protection (TIPP) into multi-agent deep deterministic policy gradient
(MADDPG) and proposed two specifically designed multi-agent RL (MARL) methods:
CPPI-MADDPG and TIPP-MADDPG for investigating strategic trading in quantitative
markets. Afterward, we selected 100 different shares in the real financial
market to test these specifically proposed approaches. The experiment results
show that CPPI-MADDPG and TIPP-MADDPG approaches generally outperform the
conventional ones.
- Abstract(参考訳): 急速な変動と量的市場の不確実性により、株式取引で利益を得るための適切な措置を講じる方法についての問題は依然として課題となっている。
最適制御のための報酬指向アプローチとしての強化学習(RL)は、このような複雑な金融シナリオにおいて、この戦略的意思決定問題に取り組むための有望な方法として登場した。
本稿では,定比ポートフォリオ保険 (CPPI) と時間不変ポートフォリオ保護 (TIPP) という2つの以前の金融取引戦略をマルチエージェント・ディープ・決定主義的政策勾配 (MADDPG) に統合し,量的市場における戦略的取引を調べるために,CPPI-MADDPG と TIPP-MADDPG という2つの特別に設計されたマルチエージェントRL (MARL) 手法を提案した。
その後、具体的なアプローチを試すために、実際の金融市場において100の異なる株を選択しました。
実験の結果,CPPI-MADDPGとTIPP-MADDPGのアプローチは従来の手法よりも優れていた。
関連論文リスト
- Hierarchical Reinforced Trader (HRT): A Bi-Level Approach for Optimizing Stock Selection and Execution [0.9553307596675155]
本稿では,階層強化学習フレームワークを用いた新たなトレーディング戦略である階層強化トレーサ(HRT)を紹介する。
HRTは、戦略的株式選択のためのPPO(Proximal Policy Optimization)ベースのHigh-Level Controller(HLC)をDDPG(Deep Deterministic Policy Gradient)ベースのLow-Level Controller(LLC)と統合する。
論文 参考訳(メタデータ) (2024-10-19T01:29:38Z) - Deep Reinforcement Learning Strategies in Finance: Insights into Asset Holding, Trading Behavior, and Purchase Diversity [0.0]
本稿では、金融資産の保有・取引傾向と、深層強化学習(DRL)アルゴリズムの購入多様性について考察する。
以上の結果から,各DRLアルゴリズムは独自の取引パターンと戦略を示し,A2Cが累積報酬のトップパフォーマーとして出現していることがわかった。
論文 参考訳(メタデータ) (2024-06-29T20:56:58Z) - Deep Reinforcement Learning and Mean-Variance Strategies for Responsible Portfolio Optimization [49.396692286192206]
本研究では,ESG状態と目的を取り入れたポートフォリオ最適化のための深層強化学習について検討する。
以上の結果から,ポートフォリオアロケーションに対する平均分散アプローチに対して,深層強化学習政策が競争力を発揮する可能性が示唆された。
論文 参考訳(メタデータ) (2024-03-25T12:04:03Z) - Local Optimization Achieves Global Optimality in Multi-Agent
Reinforcement Learning [139.53668999720605]
本稿では,各エージェントのローカルポリシーをバニラPPOと同様に更新するマルチエージェントPPOアルゴリズムを提案する。
マルコフゲームにおける標準正則条件と問題依存量により、我々のアルゴリズムはサブリニアレートで大域的最適ポリシーに収束することを示す。
論文 参考訳(メタデータ) (2023-05-08T16:20:03Z) - MetaTrader: An Reinforcement Learning Approach Integrating Diverse
Policies for Portfolio Optimization [17.759687104376855]
ポートフォリオ管理のための新しい2段階的アプローチを提案する。
最初の段階では、強化学習フレームワークに模倣学習を組み込む。
第2段階では、メタ政治を学び、市場状況を認識し、従うべき最も適切な学習方針を決定する。
論文 参考訳(メタデータ) (2022-09-01T07:58:06Z) - Monotonic Improvement Guarantees under Non-stationarity for
Decentralized PPO [66.5384483339413]
我々は,MARL(Multi-Agent Reinforcement Learning)における分散政策の最適化のための新しい単調改善保証を提案する。
本研究では,訓練中のエージェント数に基づいて,独立した比率を限定することにより,信頼領域の制約を原則的に効果的に実施可能であることを示す。
論文 参考訳(メタデータ) (2022-01-31T20:39:48Z) - Deep Q-Learning Market Makers in a Multi-Agent Simulated Stock Market [58.720142291102135]
本稿では,エージェント・ベースの観点から,これらのマーケット・メーカーの戦略に関する研究に焦点をあてる。
模擬株式市場における知的市場マーカー作成のための強化学習(Reinforcement Learning, RL)の適用を提案する。
論文 参考訳(メタデータ) (2021-12-08T14:55:21Z) - A Meta-Method for Portfolio Management Using Machine Learning for
Adaptive Strategy Selection [0.0]
MPMは2つのリスクベースのポートフォリオ割り当て戦略を切り替える方法を学ぶためにXGBoostを使用している。
MPMはシャープ比で測定されるように、優れたサンプル外リスク・リワードプロファイルを有することが示されている。
論文 参考訳(メタデータ) (2021-11-10T20:46:43Z) - Universal Trading for Order Execution with Oracle Policy Distillation [99.57416828489568]
本稿では,不完全な市場状態と注文実行のための最適な行動シーケンスとのギャップを埋める,新たなユニバーサル取引ポリシー最適化フレームワークを提案する。
本研究の枠組みは,完全情報を持つ託宣教師による実践的最適実行に向けて,共通政策の学習を指導する上で有効であることを示す。
論文 参考訳(メタデータ) (2021-01-28T05:52:18Z) - Deep Stock Trading: A Hierarchical Reinforcement Learning Framework for
Portfolio Optimization and Order Execution [26.698261314897195]
ポートフォリオマネジメントのための階層型株取引システム(HRPM)を提案する。
我々は、取引プロセスを取引実行よりもポートフォリオ管理の階層に分解し、対応する政策を訓練する。
HRPMは多くの最先端アプローチに対して大幅な改善を実現している。
論文 参考訳(メタデータ) (2020-12-23T12:09:26Z) - Reinforcement-Learning based Portfolio Management with Augmented Asset
Movement Prediction States [71.54651874063865]
ポートフォリオマネジメント(PM)は、最大利益や最小リスクといった投資目標を達成することを目的としている。
本稿では,PMのための新しいステート拡張RLフレームワークであるSARLを提案する。
当社の枠組みは, 金融PMにおける2つのユニークな課題に対処することを目的としている。(1) データの異種データ -- 資産毎の収集情報は通常, 多様性, ノイズ, 不均衡(ニュース記事など), (2) 環境の不確実性 -- 金融市場は多様で非定常である。
論文 参考訳(メタデータ) (2020-02-09T08:10:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。