論文の概要: ARL-Based Multi-Action Market Making with Hawkes Processes and Variable Volatility
- arxiv url: http://arxiv.org/abs/2508.16589v1
- Date: Thu, 07 Aug 2025 21:50:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-31 21:54:20.567233
- Title: ARL-Based Multi-Action Market Making with Hawkes Processes and Variable Volatility
- Title(参考訳): ホークスプロセスと可変ボラティリティを用いたARL型多機能市場
- Authors: Ziyi Wang, Carmine Ventre, Maria Polukarov,
- Abstract要約: 我々は、ボラティリティレベル2と200の市場形成戦略を訓練し、評価する。
その結果,低ボラティリティ環境下で訓練した4アクションMMは,高ボラティリティ条件に効果的に適応することがわかった。
このことは、フレキシブルな見積もり機構と現実的な市場シミュレーションを取り入れることで、市場形成戦略の有効性が著しく向上することを示している。
- 参考スコア(独自算出の注目度): 6.598173855286935
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We advance market-making strategies by integrating Adversarial Reinforcement Learning (ARL), Hawkes Processes, and variable volatility levels while also expanding the action space available to market makers (MMs). To enhance the adaptability and robustness of these strategies -- which can quote always, quote only on one side of the market or not quote at all -- we shift from the commonly used Poisson process to the Hawkes process, which better captures real market dynamics and self-exciting behaviors. We then train and evaluate strategies under volatility levels of 2 and 200. Our findings show that the 4-action MM trained in a low-volatility environment effectively adapts to high-volatility conditions, maintaining stable performance and providing two-sided quotes at least 92\% of the time. This indicates that incorporating flexible quoting mechanisms and realistic market simulations significantly enhances the effectiveness of market-making strategies.
- Abstract(参考訳): 我々は、市場形成戦略を、市場メーカー(MM)に利用可能なアクションスペースを拡大しつつ、ARL(Adversarial Reinforcement Learning)、ホークスプロセス(Hawkes Processes)、可変ボラティリティレベルを統合することで進める。
これらの戦略の適応性と堅牢性を高めるため -- 常に引用し、市場の片側でのみ引用するか、まったく引用しないか -- には、よく使われるPoissonプロセスから、実際の市場のダイナミクスや自己興奮的な振る舞いをよりよく捉えるHawkesプロセスに移行します。
次に、ボラティリティレベル2と200の戦略をトレーニングし、評価します。
その結果,低ボラティリティー環境で訓練された4アクションMMは,高ボラティリティー条件に効果的に適応し,安定した性能を維持し,少なくとも92%の時間で2側面の引用を提供することがわかった。
このことは、フレキシブルな見積もり機構と現実的な市場シミュレーションを取り入れることで、市場形成戦略の有効性が著しく向上することを示している。
関連論文リスト
- Building crypto portfolios with agentic AI [46.348283638884425]
暗号通貨市場の急速な成長は投資家に新たな機会を与えたが、同時に高いボラティリティがもたらされた。
本稿では,暗号アロケーションを自律的に構築し,評価するためのマルチエージェントシステムの実用化について述べる。
論文 参考訳(メタデータ) (2025-07-11T18:03:51Z) - FlowHFT: Imitation Learning via Flow Matching Policy for Optimal High-Frequency Trading under Diverse Market Conditions [10.253213044505431]
高周波トレーディング(英: high- frequency trading、HFT)は、市場状態を継続的に監視し、入札を行い、ミリ秒の速度で注文を求める投資戦略である。
従来のHFTアプローチは、過去のデータとモデルに適合し、将来の市場状態も同様のパターンに従うと仮定する。
本稿では,フローマッチングポリシーに基づく新しい模倣学習フレームワークであるFlowHFTを提案する。
論文 参考訳(メタデータ) (2025-05-09T04:58:14Z) - MTS: A Deep Reinforcement Learning Portfolio Management Framework with Time-Awareness and Short-Selling [0.8642326601683299]
本稿では,時間認識と短時間販売を伴うDeep Reinforcement Learning Portfolio Management Frameworkを紹介する。
動的リスク管理の限界、時間的市場の利用、短期販売のような複雑な取引戦略の導入に対処する。
シャープ、オメガ、ソルティーノ比の累積リターンを継続的に達成し、リスクとリターンのバランスをとる効果を裏付ける。
論文 参考訳(メタデータ) (2025-03-06T06:41:17Z) - EPO: Explicit Policy Optimization for Strategic Reasoning in LLMs via Reinforcement Learning [69.55982246413046]
戦略的推論のための明示的なポリシー最適化(EPO)を提案する。
我々は,マルチターン強化学習(RL)による戦略的推論モデルを訓練し,プロセス報酬と反復的な自己プレイを活用する。
本研究は, EPOに出現する様々な協調的推論機構と, 新規戦略の創出における有効性を明らかにするものである。
論文 参考訳(メタデータ) (2025-02-18T03:15:55Z) - Deviations from the Nash equilibrium and emergence of tacit collusion in a two-player optimal execution game with reinforcement learning [0.9208007322096533]
2つの自律的エージェントが市場の影響下で同じ資産を最適に清算することを学習するシナリオについて検討する。
その結果,エージェントが学んだ戦略は,対応する市場影響ゲームのナッシュ均衡から大きく逸脱していることがわかった。
市場のボラティリティの異なるレベルがエージェントのパフォーマンスと彼らが発見する均衡にどのように影響するかを考察する。
論文 参考訳(メタデータ) (2024-08-21T16:54:53Z) - IMM: An Imitative Reinforcement Learning Approach with Predictive
Representation Learning for Automatic Market Making [33.23156884634365]
強化学習技術は量的取引において顕著な成功を収めた。
既存のRLベースのマーケットメイキング手法のほとんどは、単価レベルの戦略の最適化に重点を置いている。
Imitative Market Maker (IMM) は、準最適信号に基づく専門家の知識と直接的な政策相互作用の両方を活用する新しいRLフレームワークである。
論文 参考訳(メタデータ) (2023-08-17T11:04:09Z) - Deep Q-Learning Market Makers in a Multi-Agent Simulated Stock Market [58.720142291102135]
本稿では,エージェント・ベースの観点から,これらのマーケット・メーカーの戦略に関する研究に焦点をあてる。
模擬株式市場における知的市場マーカー作成のための強化学習(Reinforcement Learning, RL)の適用を提案する。
論文 参考訳(メタデータ) (2021-12-08T14:55:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。