論文の概要: DeepScalper: A Risk-Aware Reinforcement Learning Framework to Capture
Fleeting Intraday Trading Opportunities
- arxiv url: http://arxiv.org/abs/2201.09058v3
- Date: Sun, 21 Aug 2022 05:11:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-04 11:32:06.945340
- Title: DeepScalper: A Risk-Aware Reinforcement Learning Framework to Capture
Fleeting Intraday Trading Opportunities
- Title(参考訳): DeepScalper: 日内取引の機会を捉えるためのリスク対応強化学習フレームワーク
- Authors: Shuo Sun, Wanqi Xue, Rundong Wang, Xu He, Junlei Zhu, Jian Li, Bo An
- Abstract要約: 日内取引のための深層強化学習フレームワークであるDeepScalperを提案する。
我々は、DeepScalperが4つの財務基準において、最先端のベースラインを著しく上回っていることを示す。
- 参考スコア(独自算出の注目度): 33.28409845878758
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reinforcement learning (RL) techniques have shown great success in many
challenging quantitative trading tasks, such as portfolio management and
algorithmic trading. Especially, intraday trading is one of the most profitable
and risky tasks because of the intraday behaviors of the financial market that
reflect billions of rapidly fluctuating capitals. However, a vast majority of
existing RL methods focus on the relatively low frequency trading scenarios
(e.g., day-level) and fail to capture the fleeting intraday investment
opportunities due to two major challenges: 1) how to effectively train
profitable RL agents for intraday investment decision-making, which involves
high-dimensional fine-grained action space; 2) how to learn meaningful
multi-modality market representation to understand the intraday behaviors of
the financial market at tick-level. Motivated by the efficient workflow of
professional human intraday traders, we propose DeepScalper, a deep
reinforcement learning framework for intraday trading to tackle the above
challenges. Specifically, DeepScalper includes four components: 1) a dueling
Q-network with action branching to deal with the large action space of intraday
trading for efficient RL optimization; 2) a novel reward function with a
hindsight bonus to encourage RL agents making trading decisions with a
long-term horizon of the entire trading day; 3) an encoder-decoder architecture
to learn multi-modality temporal market embedding, which incorporates both
macro-level and micro-level market information; 4) a risk-aware auxiliary task
to maintain a striking balance between maximizing profit and minimizing risk.
Through extensive experiments on real-world market data spanning over three
years on six financial futures, we demonstrate that DeepScalper significantly
outperforms many state-of-the-art baselines in terms of four financial
criteria.
- Abstract(参考訳): 強化学習(rl)技術は、ポートフォリオ管理やアルゴリズムトレーディングなど、多くの難しい定量的トレーディングタスクで大きな成功を収めている。
特に日内取引は、何十億もの急激な資本変動を反映した金融市場の日内行動のため、最も黒字でリスクの高い仕事の1つである。
しかし、既存のRL手法の大部分は、比較的低頻度の取引シナリオ(例えば、日単位)に焦点を当てており、2つの大きな課題により、日々の投資機会の確保に失敗している。
1)高次元きめ細かい行動空間を含む日内投資決定のための利益率RLエージェントを効果的に訓練する方法
2) 有意義なマルチモダリティ市場表現を学べば, 金融市場の日内行動を理解することができる。
専門家の日内トレーダの効率的なワークフローを動機として,この課題に対処するための日内トレーダのための深層強化学習フレームワークであるDeepScalperを提案する。
具体的には、DeepScalperには4つのコンポーネントがある。
1) 効率的なRL最適化のための日内取引の大きな行動空間を扱うための行動分岐を伴うデュエルQネットワーク
2) 後見ボーナス付き新規報酬機能は,取引日の全期間の長期的地平線で取引決定を行うrlエージェントを奨励する。
3) マクロレベルとマイクロレベルの両方の市場情報を組み込んだマルチモーダル時間市場埋め込み学習のためのエンコーダ・デコーダアーキテクチャ
4)利益の最大化とリスクの最小化の両立を維持するためのリスク対応補助タスク。
6つの金融先物に関する3年以上にわたる実世界の市場データに関する広範囲な実験を通じて、deepscalperが4つの財務基準で最先端のベースラインを大きく上回っていることを実証した。
関連論文リスト
- Optimizing Portfolio with Two-Sided Transactions and Lending: A Reinforcement Learning Framework [0.0]
本研究では,リスクの高い環境に適した強化学習に基づくポートフォリオ管理モデルを提案する。
マルチヘッドアテンションを持つ畳み込みニューラルネットワークを用いたソフトアクタ・クリティカル(SAC)エージェントを用いてモデルを実装した。
市場のボラティリティ(変動性)が変化する2つの16カ月間にわたってテストされたこのモデルは、ベンチマークを著しく上回った。
論文 参考訳(メタデータ) (2024-08-09T23:36:58Z) - When AI Meets Finance (StockAgent): Large Language Model-based Stock Trading in Simulated Real-world Environments [55.19252983108372]
LLMによって駆動される、StockAgentと呼ばれるマルチエージェントAIシステムを開発した。
StockAgentを使えば、ユーザーはさまざまな外部要因が投資家取引に与える影響を評価することができる。
AIエージェントに基づく既存のトレーディングシミュレーションシステムに存在するテストセットのリーク問題を回避する。
論文 参考訳(メタデータ) (2024-07-15T06:49:30Z) - MacroHFT: Memory Augmented Context-aware Reinforcement Learning On High Frequency Trading [20.3106468936159]
強化学習(RL)は、高周波取引(HFT)のもう一つの魅力あるアプローチとなっている。
我々は,新しいメモリ拡張コンテキスト認識強化学習手法であるOn HFT, empha.k. MacroHFTを提案する。
マイクロレベルのトレーディングタスクにおいて,MacroHFTは最先端のパフォーマンスを実現することができることを示す。
論文 参考訳(メタデータ) (2024-06-20T17:48:24Z) - IMM: An Imitative Reinforcement Learning Approach with Predictive
Representation Learning for Automatic Market Making [33.23156884634365]
強化学習技術は量的取引において顕著な成功を収めた。
既存のRLベースのマーケットメイキング手法のほとんどは、単価レベルの戦略の最適化に重点を置いている。
Imitative Market Maker (IMM) は、準最適信号に基づく専門家の知識と直接的な政策相互作用の両方を活用する新しいRLフレームワークである。
論文 参考訳(メタデータ) (2023-08-17T11:04:09Z) - Mastering Pair Trading with Risk-Aware Recurrent Reinforcement Learning [10.566829415146426]
CREDITは、人間専門家と同様、ペア取引における長期的な取引機会を活用することを学習できるリスク対応エージェントである。
CREDITは、状態に埋め込まれた時間的相関を完全に考慮する時間的注意機構とともに、双方向GRUを初めて適用した。
これは当社のエージェントが、高いリターンと損失の可能性のあるリスクの高いトレーディングを避けるために、堅牢なトレーディング優先でペアトレーディングをマスターするのに役立ちます。
論文 参考訳(メタデータ) (2023-04-01T18:12:37Z) - Factor Investing with a Deep Multi-Factor Model [123.52358449455231]
我々は、業界中立化と市場中立化モジュールを明確な財務見識をもって取り入れた、新しい深層多要素モデルを開発する。
実世界の株式市場データによるテストは、我々の深層多要素モデルの有効性を示している。
論文 参考訳(メタデータ) (2022-10-22T14:47:11Z) - Quantitative Stock Investment by Routing Uncertainty-Aware Trading
Experts: A Multi-Task Learning Approach [29.706515133374193]
既存のディープラーニング手法はランダムなシードやネットワークルータに敏感であることを示す。
本稿では,成功した取引会社の効果的なボトムアップトレーディング戦略設計ワークフローを模倣する,量的投資のための新しい2段階混成(MoE)フレームワークを提案する。
AlphaMixは4つの財務基準において、最先端のベースラインを大きく上回っている。
論文 参考訳(メタデータ) (2022-06-07T08:58:00Z) - Deep Q-Learning Market Makers in a Multi-Agent Simulated Stock Market [58.720142291102135]
本稿では,エージェント・ベースの観点から,これらのマーケット・メーカーの戦略に関する研究に焦点をあてる。
模擬株式市場における知的市場マーカー作成のための強化学習(Reinforcement Learning, RL)の適用を提案する。
論文 参考訳(メタデータ) (2021-12-08T14:55:21Z) - A Deep Reinforcement Learning Framework for Continuous Intraday Market
Bidding [69.37299910149981]
再生可能エネルギー源統合の成功の鍵となる要素は、エネルギー貯蔵の利用である。
欧州の継続的な日内市場におけるエネルギー貯蔵の戦略的関与をモデル化するための新しい枠組みを提案する。
本アルゴリズムの分散バージョンは, サンプル効率のため, この問題を解決するために選択される。
その結果, エージェントは, ベンチマーク戦略よりも平均的収益率の高い政策に収束することが示唆された。
論文 参考訳(メタデータ) (2020-04-13T13:50:13Z) - Reinforcement-Learning based Portfolio Management with Augmented Asset
Movement Prediction States [71.54651874063865]
ポートフォリオマネジメント(PM)は、最大利益や最小リスクといった投資目標を達成することを目的としている。
本稿では,PMのための新しいステート拡張RLフレームワークであるSARLを提案する。
当社の枠組みは, 金融PMにおける2つのユニークな課題に対処することを目的としている。(1) データの異種データ -- 資産毎の収集情報は通常, 多様性, ノイズ, 不均衡(ニュース記事など), (2) 環境の不確実性 -- 金融市場は多様で非定常である。
論文 参考訳(メタデータ) (2020-02-09T08:10:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。