論文の概要: Resolving Latency and Inventory Risk in Market Making with Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2505.12465v1
- Date: Sun, 18 May 2025 15:43:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.251653
- Title: Resolving Latency and Inventory Risk in Market Making with Reinforcement Learning
- Title(参考訳): 強化学習による市場形成におけるレイテンシと発明リスクの解消
- Authors: Junzhe Jiang, Chang Yang, Xinrun Wang, Zhiming Li, Xiao Huang, Bo Li,
- Abstract要約: 市場メイキング(MM)における取引所の遅延は、ハードウェアの制限、システム処理時間、取引所からのデータの受信遅延、市場に到達するのに注文の送信に要する時間などにより避けられない。
マーケットメイキング(MM)のための既存の強化学習(RL)手法は、これらの遅延の影響を無視する。
本稿では,待ち時間と在庫リスク問題に対処するRLに基づくMM手法であるRelaverを提案する。
- 参考スコア(独自算出の注目度): 17.821508944254237
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The latency of the exchanges in Market Making (MM) is inevitable due to hardware limitations, system processing times, delays in receiving data from exchanges, the time required for order transmission to reach the market, etc. Existing reinforcement learning (RL) methods for Market Making (MM) overlook the impact of these latency, which can lead to unintended order cancellations due to price discrepancies between decision and execution times and result in undesired inventory accumulation, exposing MM traders to increased market risk. Therefore, these methods cannot be applied in real MM scenarios. To address these issues, we first build a realistic MM environment with random delays of 30-100 milliseconds for order placement and market information reception, and implement a batch matching mechanism that collects orders within every 500 milliseconds before matching them all at once, simulating the batch auction mechanisms adopted by some exchanges. Then, we propose Relaver, an RL-based method for MM to tackle the latency and inventory risk issues. The three main contributions of Relaver are: i) we introduce an augmented state-action space that incorporates order hold time alongside price and volume, enabling Relaver to optimize execution strategies under latency constraints and time-priority matching mechanisms, ii) we leverage dynamic programming (DP) to guide the exploration of RL training for better policies, iii) we train a market trend predictor, which can guide the agent to intelligently adjust the inventory to reduce the risk. Extensive experiments and ablation studies on four real-world datasets demonstrate that \textsc{Relaver} significantly improves the performance of state-of-the-art RL-based MM strategies across multiple metrics.
- Abstract(参考訳): 市場メイキング(MM)における取引所の遅延は、ハードウェアの制限、システム処理時間、取引所からのデータの受信遅延、市場に到達するのに注文の送信に要する時間などにより避けられない。
既存の市場メイキング(MM)のための強化学習(RL)手法は、これらの遅延の影響を見逃し、決定と実行時間の価格差による意図しない注文キャンセルを招き、望ましくない在庫の蓄積を招き、MMトレーダーを市場リスクの増大に晒す。
したがって、これらの手法は実際のMMシナリオでは適用できない。
これらの課題に対処するために,まず,注文の配置と市場情報受信に30~100ミリ秒のランダムな遅延を伴って,現実的なMM環境を構築し,500ミリ秒毎に注文を収集するバッチマッチング機構を実装し,それらを一度にマッチングし,いくつかの交換所で採用されているバッチオークション機構をシミュレートする。
そこで我々は,RLに基づくMM手法であるRelaverを提案し,そのレイテンシと在庫リスク問題に対処する。
Relaverの主な貢献は次の3つだ。
一 遅延制約下での実行戦略を最適化し、時間-優先度マッチング機構を実現できるように、価格とボリュームと共に注文保持時間を含む拡張状態-アクション空間を導入する。
二 動的プログラミング(DP)を活用して、より優れた政策のためのRLトレーニングの探索を指導する。
三 市場動向予測器を訓練し、リスク軽減のため、知的に在庫を調整するようエージェントに誘導することができる。
4つの実世界のデータセットに対する大規模な実験とアブレーション研究により、‘textsc{Relaver} は、複数のメトリクスにわたって最先端のRLベースのMM戦略の性能を大幅に改善することを示した。
関連論文リスト
- MTS: A Deep Reinforcement Learning Portfolio Management Framework with Time-Awareness and Short-Selling [0.8642326601683299]
本稿では,時間認識と短時間販売を伴うDeep Reinforcement Learning Portfolio Management Frameworkを紹介する。
動的リスク管理の限界、時間的市場の利用、短期販売のような複雑な取引戦略の導入に対処する。
シャープ、オメガ、ソルティーノ比の累積リターンを継続的に達成し、リスクとリターンのバランスをとる効果を裏付ける。
論文 参考訳(メタデータ) (2025-03-06T06:41:17Z) - Self-Regulation and Requesting Interventions [63.5863047447313]
介入要求のための"helper"ポリシーをトレーニングするオフラインフレームワークを提案する。
PRMによる最適介入タイミングを判定し,これらのラベル付き軌道上でヘルパーモデルを訓練する。
このオフラインアプローチは、トレーニング中のコストのかかる介入コールを大幅に削減する。
論文 参考訳(メタデータ) (2025-02-07T00:06:17Z) - MetaTrading: An Immersion-Aware Model Trading Framework for Vehicular Metaverse Services [94.61039892220037]
我々は、フェデレーション学習(FL)によるプライバシーを確保しつつ、サービスのデータ提供を容易にする没入型モデルトレーディングフレームワークを提案する。
我々は,資源制約下での高価値モデルに貢献するために,メタバースユーザ(MU)にインセンティブを与えるインセンティブ機構を設計する。
我々は、MUやその他のMSPに関するプライベート情報にアクセスすることなく、深層強化学習に基づく完全に分散された動的報酬アルゴリズムを開発する。
論文 参考訳(メタデータ) (2024-10-25T16:20:46Z) - When AI Meets Finance (StockAgent): Large Language Model-based Stock Trading in Simulated Real-world Environments [55.19252983108372]
LLMによって駆動される、StockAgentと呼ばれるマルチエージェントAIシステムを開発した。
StockAgentを使えば、ユーザーはさまざまな外部要因が投資家取引に与える影響を評価することができる。
AIエージェントに基づく既存のトレーディングシミュレーションシステムに存在するテストセットのリーク問題を回避する。
論文 参考訳(メタデータ) (2024-07-15T06:49:30Z) - MacroHFT: Memory Augmented Context-aware Reinforcement Learning On High Frequency Trading [20.3106468936159]
強化学習(RL)は、高周波取引(HFT)のもう一つの魅力あるアプローチとなっている。
我々は,新しいメモリ拡張コンテキスト認識強化学習手法であるOn HFT, empha.k. MacroHFTを提案する。
マイクロレベルのトレーディングタスクにおいて,MacroHFTは最先端のパフォーマンスを実現することができることを示す。
論文 参考訳(メタデータ) (2024-06-20T17:48:24Z) - IMM: An Imitative Reinforcement Learning Approach with Predictive
Representation Learning for Automatic Market Making [33.23156884634365]
強化学習技術は量的取引において顕著な成功を収めた。
既存のRLベースのマーケットメイキング手法のほとんどは、単価レベルの戦略の最適化に重点を置いている。
Imitative Market Maker (IMM) は、準最適信号に基づく専門家の知識と直接的な政策相互作用の両方を活用する新しいRLフレームワークである。
論文 参考訳(メタデータ) (2023-08-17T11:04:09Z) - Market Making with Deep Reinforcement Learning from Limit Order Books [2.569647910019739]
本稿では,リミットオーダーブック(LOB)データを用いた市場形成のためのRLエージェントを提案する。
特徴抽出には畳み込みフィルタとアテンション機構(Attn-LOB)を用いたニューラルネットワークを利用する。
MMタスクのための新しい連続行動空間とハイブリッド報酬関数を設計する。
論文 参考訳(メタデータ) (2023-05-25T08:05:19Z) - Deep Reinforcement Learning Approach for Trading Automation in The Stock
Market [0.0]
本稿では,Deep Reinforcement Learning (DRL)アルゴリズムを用いて,株式市場における収益性取引を生成するモデルを提案する。
我々は、市場が課す制約を考慮して、部分的に観測されたマルコフ決定プロセス(POMDP)モデルとして取引問題を定式化する。
次に, Twin Delayed Deep Deterministic Policy Gradient (TD3) アルゴリズムを用いて, 2.68 Sharpe Ratio を未知のデータセットに報告し, 定式化した POMDP 問題を解く。
論文 参考訳(メタデータ) (2022-07-05T11:34:29Z) - Deep Q-Learning Market Makers in a Multi-Agent Simulated Stock Market [58.720142291102135]
本稿では,エージェント・ベースの観点から,これらのマーケット・メーカーの戦略に関する研究に焦点をあてる。
模擬株式市場における知的市場マーカー作成のための強化学習(Reinforcement Learning, RL)の適用を提案する。
論文 参考訳(メタデータ) (2021-12-08T14:55:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。