論文の概要: DeepScalper: A Risk-Aware Reinforcement Learning Framework to Capture
Fleeting Intraday Trading Opportunities
- arxiv url: http://arxiv.org/abs/2201.09058v3
- Date: Sun, 21 Aug 2022 05:11:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-04 11:32:06.945340
- Title: DeepScalper: A Risk-Aware Reinforcement Learning Framework to Capture
Fleeting Intraday Trading Opportunities
- Title(参考訳): DeepScalper: 日内取引の機会を捉えるためのリスク対応強化学習フレームワーク
- Authors: Shuo Sun, Wanqi Xue, Rundong Wang, Xu He, Junlei Zhu, Jian Li, Bo An
- Abstract要約: 日内取引のための深層強化学習フレームワークであるDeepScalperを提案する。
我々は、DeepScalperが4つの財務基準において、最先端のベースラインを著しく上回っていることを示す。
- 参考スコア(独自算出の注目度): 33.28409845878758
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reinforcement learning (RL) techniques have shown great success in many
challenging quantitative trading tasks, such as portfolio management and
algorithmic trading. Especially, intraday trading is one of the most profitable
and risky tasks because of the intraday behaviors of the financial market that
reflect billions of rapidly fluctuating capitals. However, a vast majority of
existing RL methods focus on the relatively low frequency trading scenarios
(e.g., day-level) and fail to capture the fleeting intraday investment
opportunities due to two major challenges: 1) how to effectively train
profitable RL agents for intraday investment decision-making, which involves
high-dimensional fine-grained action space; 2) how to learn meaningful
multi-modality market representation to understand the intraday behaviors of
the financial market at tick-level. Motivated by the efficient workflow of
professional human intraday traders, we propose DeepScalper, a deep
reinforcement learning framework for intraday trading to tackle the above
challenges. Specifically, DeepScalper includes four components: 1) a dueling
Q-network with action branching to deal with the large action space of intraday
trading for efficient RL optimization; 2) a novel reward function with a
hindsight bonus to encourage RL agents making trading decisions with a
long-term horizon of the entire trading day; 3) an encoder-decoder architecture
to learn multi-modality temporal market embedding, which incorporates both
macro-level and micro-level market information; 4) a risk-aware auxiliary task
to maintain a striking balance between maximizing profit and minimizing risk.
Through extensive experiments on real-world market data spanning over three
years on six financial futures, we demonstrate that DeepScalper significantly
outperforms many state-of-the-art baselines in terms of four financial
criteria.
- Abstract(参考訳): 強化学習(rl)技術は、ポートフォリオ管理やアルゴリズムトレーディングなど、多くの難しい定量的トレーディングタスクで大きな成功を収めている。
特に日内取引は、何十億もの急激な資本変動を反映した金融市場の日内行動のため、最も黒字でリスクの高い仕事の1つである。
しかし、既存のRL手法の大部分は、比較的低頻度の取引シナリオ(例えば、日単位)に焦点を当てており、2つの大きな課題により、日々の投資機会の確保に失敗している。
1)高次元きめ細かい行動空間を含む日内投資決定のための利益率RLエージェントを効果的に訓練する方法
2) 有意義なマルチモダリティ市場表現を学べば, 金融市場の日内行動を理解することができる。
専門家の日内トレーダの効率的なワークフローを動機として,この課題に対処するための日内トレーダのための深層強化学習フレームワークであるDeepScalperを提案する。
具体的には、DeepScalperには4つのコンポーネントがある。
1) 効率的なRL最適化のための日内取引の大きな行動空間を扱うための行動分岐を伴うデュエルQネットワーク
2) 後見ボーナス付き新規報酬機能は,取引日の全期間の長期的地平線で取引決定を行うrlエージェントを奨励する。
3) マクロレベルとマイクロレベルの両方の市場情報を組み込んだマルチモーダル時間市場埋め込み学習のためのエンコーダ・デコーダアーキテクチャ
4)利益の最大化とリスクの最小化の両立を維持するためのリスク対応補助タスク。
6つの金融先物に関する3年以上にわたる実世界の市場データに関する広範囲な実験を通じて、deepscalperが4つの財務基準で最先端のベースラインを大きく上回っていることを実証した。
関連論文リスト
- Harnessing Deep Q-Learning for Enhanced Statistical Arbitrage in
High-Frequency Trading: A Comprehensive Exploration [0.0]
強化学習(Reinforcement Learning、RL)は、エージェントが環境と対話することで学習する機械学習の分野である。
本稿では,HFT(High-Frequency Trading)シナリオに適した統計仲裁手法におけるRLの統合について述べる。
広範なシミュレーションやバックテストを通じて、RLはトレーディング戦略の適応性を高めるだけでなく、収益性指標の改善やリスク調整されたリターンの期待も示している。
論文 参考訳(メタデータ) (2023-09-13T06:15:40Z) - IMM: An Imitative Reinforcement Learning Approach with Predictive
Representation Learning for Automatic Market Making [33.23156884634365]
強化学習技術は量的取引において顕著な成功を収めた。
既存のRLベースのマーケットメイキング手法のほとんどは、単価レベルの戦略の最適化に重点を置いている。
Imitative Market Maker (IMM) は、準最適信号に基づく専門家の知識と直接的な政策相互作用の両方を活用する新しいRLフレームワークである。
論文 参考訳(メタデータ) (2023-08-17T11:04:09Z) - Mastering Pair Trading with Risk-Aware Recurrent Reinforcement Learning [10.566829415146426]
CREDITは、人間専門家と同様、ペア取引における長期的な取引機会を活用することを学習できるリスク対応エージェントである。
CREDITは、状態に埋め込まれた時間的相関を完全に考慮する時間的注意機構とともに、双方向GRUを初めて適用した。
これは当社のエージェントが、高いリターンと損失の可能性のあるリスクの高いトレーディングを避けるために、堅牢なトレーディング優先でペアトレーディングをマスターするのに役立ちます。
論文 参考訳(メタデータ) (2023-04-01T18:12:37Z) - Factor Investing with a Deep Multi-Factor Model [123.52358449455231]
我々は、業界中立化と市場中立化モジュールを明確な財務見識をもって取り入れた、新しい深層多要素モデルを開発する。
実世界の株式市場データによるテストは、我々の深層多要素モデルの有効性を示している。
論文 参考訳(メタデータ) (2022-10-22T14:47:11Z) - MetaTrader: An Reinforcement Learning Approach Integrating Diverse
Policies for Portfolio Optimization [17.759687104376855]
ポートフォリオ管理のための新しい2段階的アプローチを提案する。
最初の段階では、強化学習フレームワークに模倣学習を組み込む。
第2段階では、メタ政治を学び、市場状況を認識し、従うべき最も適切な学習方針を決定する。
論文 参考訳(メタデータ) (2022-09-01T07:58:06Z) - Quantitative Stock Investment by Routing Uncertainty-Aware Trading
Experts: A Multi-Task Learning Approach [29.706515133374193]
既存のディープラーニング手法はランダムなシードやネットワークルータに敏感であることを示す。
本稿では,成功した取引会社の効果的なボトムアップトレーディング戦略設計ワークフローを模倣する,量的投資のための新しい2段階混成(MoE)フレームワークを提案する。
AlphaMixは4つの財務基準において、最先端のベースラインを大きく上回っている。
論文 参考訳(メタデータ) (2022-06-07T08:58:00Z) - FinRL-Meta: A Universe of Near-Real Market Environments for Data-Driven
Deep Reinforcement Learning in Quantitative Finance [58.77314662664463]
FinRL-Metaは、データ駆動型金融強化学習のための市場環境の宇宙を構築している。
まず、FinRL-MetaはDRLベースの戦略の設計パイプラインから財務データ処理を分離する。
第2に、FinRL-Metaは様々な取引タスクに数百の市場環境を提供している。
論文 参考訳(メタデータ) (2021-12-13T16:03:37Z) - Deep Q-Learning Market Makers in a Multi-Agent Simulated Stock Market [58.720142291102135]
本稿では,エージェント・ベースの観点から,これらのマーケット・メーカーの戦略に関する研究に焦点をあてる。
模擬株式市場における知的市場マーカー作成のための強化学習(Reinforcement Learning, RL)の適用を提案する。
論文 参考訳(メタデータ) (2021-12-08T14:55:21Z) - A Deep Reinforcement Learning Framework for Continuous Intraday Market
Bidding [69.37299910149981]
再生可能エネルギー源統合の成功の鍵となる要素は、エネルギー貯蔵の利用である。
欧州の継続的な日内市場におけるエネルギー貯蔵の戦略的関与をモデル化するための新しい枠組みを提案する。
本アルゴリズムの分散バージョンは, サンプル効率のため, この問題を解決するために選択される。
その結果, エージェントは, ベンチマーク戦略よりも平均的収益率の高い政策に収束することが示唆された。
論文 参考訳(メタデータ) (2020-04-13T13:50:13Z) - Reinforcement-Learning based Portfolio Management with Augmented Asset
Movement Prediction States [71.54651874063865]
ポートフォリオマネジメント(PM)は、最大利益や最小リスクといった投資目標を達成することを目的としている。
本稿では,PMのための新しいステート拡張RLフレームワークであるSARLを提案する。
当社の枠組みは, 金融PMにおける2つのユニークな課題に対処することを目的としている。(1) データの異種データ -- 資産毎の収集情報は通常, 多様性, ノイズ, 不均衡(ニュース記事など), (2) 環境の不確実性 -- 金融市場は多様で非定常である。
論文 参考訳(メタデータ) (2020-02-09T08:10:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。