論文の概要: Asynchronous Deep Double Duelling Q-Learning for Trading-Signal
Execution in Limit Order Book Markets
- arxiv url: http://arxiv.org/abs/2301.08688v2
- Date: Mon, 25 Sep 2023 15:57:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-27 04:14:13.187201
- Title: Asynchronous Deep Double Duelling Q-Learning for Trading-Signal
Execution in Limit Order Book Markets
- Title(参考訳): 限定注文書市場における取引信号実行のための非同期深層デュエルQラーニング
- Authors: Peer Nagy, Jan-Peter Calliess and Stefan Zohren
- Abstract要約: 我々は、エージェントを訓練し、高周波取引信号を個々のリミット注文を配置するトレーディング戦略に変換するために、深層強化学習を採用している。
ABIDESリミテッドオーダーブックシミュレータをベースとして,強化学習型オープンAIジム環境を構築した。
我々はRLエージェントが在庫管理の効果的な取引戦略を学習し、同じ信号にアクセス可能なベンチマークトレーディング戦略より優れていることを見出した。
- 参考スコア(独自算出の注目度): 5.202524136984542
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We employ deep reinforcement learning (RL) to train an agent to successfully
translate a high-frequency trading signal into a trading strategy that places
individual limit orders. Based on the ABIDES limit order book simulator, we
build a reinforcement learning OpenAI gym environment and utilise it to
simulate a realistic trading environment for NASDAQ equities based on historic
order book messages. To train a trading agent that learns to maximise its
trading return in this environment, we use Deep Duelling Double Q-learning with
the APEX (asynchronous prioritised experience replay) architecture. The agent
observes the current limit order book state, its recent history, and a
short-term directional forecast. To investigate the performance of RL for
adaptive trading independently from a concrete forecasting algorithm, we study
the performance of our approach utilising synthetic alpha signals obtained by
perturbing forward-looking returns with varying levels of noise. Here, we find
that the RL agent learns an effective trading strategy for inventory management
and order placing that outperforms a heuristic benchmark trading strategy
having access to the same signal.
- Abstract(参考訳): 我々は、エージェントを訓練するために深層強化学習(RL)を使用し、高周波取引信号を個々のリミット注文を配置するトレーディング戦略にうまく翻訳する。
abides limit order book simulatorに基づき、強化学習openaiジム環境を構築し、歴史的な注文帳メッセージに基づいてnasdaq株の現実的な取引環境をシミュレートする。
この環境でのトレーディングリターンの最大化を学習するトレーディングエージェントのトレーニングには、APEX(asynchronous prioritised Experience replay)アーキテクチャを使用したDeep Duelling Double Q-learningを使用します。
エージェントは、現在のリミットオーダーの帳簿状態、その最近の歴史、および短期的な方向性予測を観察する。
具体的な予測アルゴリズムから独立して適応的トレーディングを行うためのRLの性能について検討するため,ノイズレベルの異なる前方方向のリターンを摂動することで得られる合成アルファ信号を用いた手法の性能について検討した。
ここでは,RLエージェントが在庫管理の効果的なトレーディング戦略を学習し,それらが同一信号にアクセス可能なヒューリスティックなベンチマークトレーディング戦略より優れていることを示す。
関連論文リスト
- When AI Meets Finance (StockAgent): Large Language Model-based Stock Trading in Simulated Real-world Environments [55.19252983108372]
LLMによって駆動される、StockAgentと呼ばれるマルチエージェントAIシステムを開発した。
StockAgentを使えば、ユーザーはさまざまな外部要因が投資家取引に与える影響を評価することができる。
AIエージェントに基づく既存のトレーディングシミュレーションシステムに存在するテストセットのリーク問題を回避する。
論文 参考訳(メタデータ) (2024-07-15T06:49:30Z) - MOT: A Mixture of Actors Reinforcement Learning Method by Optimal Transport for Algorithmic Trading [6.305870529904885]
マーケットの異なるパターンをモデル化するために,複数のアクターを非交叉表現学習で設計するMOTを提案する。
将来の市場データによる実験結果から,MOTはリスクのバランスを保ちながら優れた収益性を示すことが示された。
論文 参考訳(メタデータ) (2024-06-03T01:42:52Z) - Combining Deep Learning on Order Books with Reinforcement Learning for
Profitable Trading [0.0]
本研究は,注文フローを用いた複数地平線におけるリターン予測と,5つの金融機器を対象とした3つの時間差不均衡学習モデルを訓練することに焦点を当てる。
この結果は潜在的な可能性を証明しているが、小売取引コスト、滑り込み、スプレッド・揺らぎを完全に処理するためには、一貫した黒字取引のためのさらなる最小限の修正が必要である。
論文 参考訳(メタデータ) (2023-10-24T15:58:58Z) - Action-Quantized Offline Reinforcement Learning for Robotic Skill
Learning [68.16998247593209]
オフライン強化学習(RL)パラダイムは、静的な行動データセットを、データを収集したポリシーよりも優れたパフォーマンスのポリシーに変換するためのレシピを提供する。
本稿では,アクション量子化のための適応型スキームを提案する。
IQL,CQL,BRACといった最先端のオフラインRL手法が,提案手法と組み合わせることで,ベンチマークのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2023-10-18T06:07:10Z) - A Novel Deep Reinforcement Learning Based Automated Stock Trading System
Using Cascaded LSTM Networks [3.593955557310285]
そこで我々は,まずLSTMを用いて日次データから時系列特徴を抽出し,抽出した特徴を訓練エージェントに供給する,DRLベースの株式取引システムを提案する。
米国の市場におけるDJIと中国の株式市場におけるSSE50の実験は、当社のモデルが累積リターンとシャープ比で従来のベースラインモデルを上回っていることを示している。
論文 参考訳(メタデータ) (2022-12-06T03:22:06Z) - Mastering the Unsupervised Reinforcement Learning Benchmark from Pixels [112.63440666617494]
強化学習アルゴリズムは成功するが、エージェントと環境の間の大量の相互作用を必要とする。
本稿では,教師なしモデルベースRLを用いてエージェントを事前学習する手法を提案する。
我々はReal-Word RLベンチマークにおいて、適応中の環境摂動に対する抵抗性を示唆し、堅牢な性能を示す。
論文 参考訳(メタデータ) (2022-09-24T14:22:29Z) - Deep Q-Learning Market Makers in a Multi-Agent Simulated Stock Market [58.720142291102135]
本稿では,エージェント・ベースの観点から,これらのマーケット・メーカーの戦略に関する研究に焦点をあてる。
模擬株式市場における知的市場マーカー作成のための強化学習(Reinforcement Learning, RL)の適用を提案する。
論文 参考訳(メタデータ) (2021-12-08T14:55:21Z) - Deep Reinforcement Learning for Active High Frequency Trading [1.6874375111244329]
我々は、株式市場におけるアクティブな高周波取引のための、最初のエンドツーエンドのDeep Reinforcement Learning(DRL)ベースのフレームワークを紹介する。
我々はDRLエージェントを訓練し、Pximal Policy Optimizationアルゴリズムを用いてIntel Corporation株の1ユニットを取引する。
論文 参考訳(メタデータ) (2021-01-18T15:09:28Z) - AAMDRL: Augmented Asset Management with Deep Reinforcement Learning [5.801876281373619]
深層強化学習がこの課題にどのように対処できるかを示す。
コントリビューションは3つある: (i) DRLにおける拡張状態とも呼ばれる文脈情報の使用, (ii) 観察と行動の間の1周期の遅延の影響, (iii) ウォークフォワード分析と呼ばれる新しい反復列車試験手法の実装。
我々の実験は、ボットのトレーディングに重点を置いているが、状況変化やノイズの多いデータとともに、シーケンシャルな環境で動作する他のボット環境に容易に翻訳できる。
論文 参考訳(メタデータ) (2020-09-30T03:55:47Z) - Stock2Vec: A Hybrid Deep Learning Framework for Stock Market Prediction
with Representation Learning and Temporal Convolutional Network [71.25144476293507]
我々は、株式市場の日々の価格を予測するためのグローバルなハイブリッドディープラーニングフレームワークを開発することを提案した。
表現学習によって、私たちはStock2Vecという埋め込みを導きました。
我々のハイブリッドフレームワークは、両方の利点を統合し、いくつかの人気のあるベンチマークモデルよりも、株価予測タスクにおいてより良いパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-09-29T22:54:30Z) - Deep Stock Predictions [58.720142291102135]
本稿では,Long Short Term Memory (LSTM) ニューラルネットワークを用いてポートフォリオ最適化を行うトレーディング戦略の設計について考察する。
次に、LSTMのトレーニングに使用する損失関数をカスタマイズし、利益を上げる。
カスタマイズされた損失関数を持つLSTMモデルは、ARIMAのような回帰ベースライン上でのトレーニングボットの性能を向上させる。
論文 参考訳(メタデータ) (2020-06-08T23:37:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。