論文の概要: When AI Trading Agents Compete: Adverse Selection of Meta-Orders by Reinforcement Learning-Based Market Making
- arxiv url: http://arxiv.org/abs/2510.27334v1
- Date: Fri, 31 Oct 2025 10:05:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-03 17:52:16.060909
- Title: When AI Trading Agents Compete: Adverse Selection of Meta-Orders by Reinforcement Learning-Based Market Making
- Title(参考訳): AIトレーディングエージェントが競合する時:強化学習に基づく市場形成によるメタオーダーの逆選択
- Authors: Ali Raza Jafree, Konark Jain, Nick Firoozye,
- Abstract要約: 我々は,中頻度トレーディングエージェントが機会的高周波トレーディングによって有害に選択されるメカニズムについて検討する。
我々は、高頻度市場メーカの振る舞いを再現するために、ホークス・リミット・オーダーブック(LOB)モデル内で強化学習(RL)を用いる。
- 参考スコア(独自算出の注目度): 0.061173711613792085
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We investigate the mechanisms by which medium-frequency trading agents are adversely selected by opportunistic high-frequency traders. We use reinforcement learning (RL) within a Hawkes Limit Order Book (LOB) model in order to replicate the behaviours of high-frequency market makers. In contrast to the classical models with exogenous price impact assumptions, the Hawkes model accounts for endogenous price impact and other key properties of the market (Jain et al. 2024a). Given the real-world impracticalities of the market maker updating strategies for every event in the LOB, we formulate the high-frequency market making agent via an impulse control reinforcement learning framework (Jain et al. 2025). The RL used in the simulation utilises Proximal Policy Optimisation (PPO) and self-imitation learning. To replicate the adverse selection phenomenon, we test the RL agent trading against a medium frequency trader (MFT) executing a meta-order and demonstrate that, with training against the MFT meta-order execution agent, the RL market making agent learns to capitalise on the price drift induced by the meta-order. Recent empirical studies have shown that medium-frequency traders are increasingly subject to adverse selection by high-frequency trading agents. As high-frequency trading continues to proliferate across financial markets, the slippage costs incurred by medium-frequency traders are likely to increase over time. However, we do not observe that increased profits for the market making RL agent necessarily cause significantly increased slippages for the MFT agent.
- Abstract(参考訳): 我々は,中頻度トレーディングエージェントが機会的高周波トレーディングによって有害に選択されるメカニズムについて検討する。
我々は、高頻度市場メーカの行動を再現するために、ホークス・リミット・オーダーブック(LOB)モデル内で強化学習(RL)を用いる。
外因性価格影響の仮定を持つ古典的なモデルとは対照的に、ホークスモデルは内因性価格の影響と市場の他の重要な特性(Jain et al 2024a)を考慮に入れている。
市場メーカの現実的な非現実性を踏まえ、LOBにおける各イベントの戦略を更新する上で、インパルス制御強化学習フレームワーク(Jain et al 2025)を介して高周波市場作成エージェントを定式化する。
シミュレーションで使用されるRLは、PPO(Proximal Policy Optimisation)と自己模倣学習を利用する。
本稿では, メタオーダーを実行する中頻度トレーダー(MFT)に対してRLエージェントを取引し, MFTメタオーダー実行エージェントに対するトレーニングにより, RLマーケット作成エージェントは, メタオーダーによって引き起こされる価格変動に乗じることを学ぶことを実証する。
最近の実証研究により、中頻度トレーダーは、高周波トレーディングエージェントによる有害な選択を受けつつあることが示されている。
金融市場全体で高周波取引が拡大し続けており、中頻度トレーダーが引き起こした滑り込みコストは時間とともに増加する可能性が高い。
しかし,市場形成におけるRLエージェントの利益増加がMFTエージェントの滑り込みを著しく増加させるとは考えていない。
関連論文リスト
- Robust Reinforcement Learning in Finance: Modeling Market Impact with Elliptic Uncertainty Sets [57.179679246370114]
金融分野では、強化学習(RL)エージェントは、価格に影響を与えない歴史的データに基づいて訓練されることが多い。
展開中、これらのエージェントは、自身の取引が資産価格を変えることができるライブマーケットで取引する。
従来のロバストなRLアプローチは、不確実性の集合に対して最悪のパフォーマンスを最適化することで、このモデルの誤特定に対処する。
楕円型不確実性集合の新たなクラスを開発し,効率的かつ堅牢な政策評価を可能にする。
論文 参考訳(メタデータ) (2025-10-22T18:22:25Z) - When Agents Trade: Live Multi-Market Trading Benchmark for LLM Agents [74.55061622246824]
Agent Market Arena (AMA)は、LLM(Large Language Model)ベースのトレーディングエージェントを評価するための、初めてのリアルタイムベンチマークである。
AMAは、検証済みのトレーディングデータ、専門家チェックされたニュース、および統一されたトレーディングフレームワーク内に多様なエージェントアーキテクチャを統合する。
GPT-4o、GPT-4.1、Claude-3.5-haiku、Claude-sonnet-4、Gemini-2.0-flashにまたがる薬剤を評価する。
論文 参考訳(メタデータ) (2025-10-13T17:54:09Z) - QTMRL: An Agent for Quantitative Trading Decision-Making Based on Multi-Indicator Guided Reinforcement Learning [5.438637626629327]
本稿では,多次元技術指標と強化学習(RL)を組み合わせた知的取引エージェントであるQTMRL(Quantitative Trading Multi-Indicator Reinforcement Learning)を提案する。
まず,S&P 500日毎OHLCVデータ(2000-2022)を用いて,5つのセクターにまたがる16の代表的な在庫について,23年間のS&P500日毎OHLCVデータ(2000-2022)を用いて総合的多指標データセットを構築した。
次に、データ処理、A2Cアルゴリズム、トレーディングエージェントモジュールを含むAdvantage Actor-Critic(A2C)アルゴリズムに基づく軽量RLフレームワークを設計する。
論文 参考訳(メタデータ) (2025-08-28T06:37:41Z) - To Trade or Not to Trade: An Agentic Approach to Estimating Market Risk Improves Trading Decisions [0.0]
大規模言語モデル(LLM)はますますエージェントフレームワークにデプロイされている。
我々は LLM を用いて金融時系列の微分方程式を反復的に発見するエージェントシステムを開発した。
モデルインフォームドトレーディング戦略は標準LLMエージェントよりも優れていた。
論文 参考訳(メタデータ) (2025-07-11T13:29:32Z) - When AI Meets Finance (StockAgent): Large Language Model-based Stock Trading in Simulated Real-world Environments [55.19252983108372]
LLMによって駆動される、StockAgentと呼ばれるマルチエージェントAIシステムを開発した。
StockAgentを使えば、ユーザーはさまざまな外部要因が投資家取引に与える影響を評価することができる。
AIエージェントに基づく既存のトレーディングシミュレーションシステムに存在するテストセットのリーク問題を回避する。
論文 参考訳(メタデータ) (2024-07-15T06:49:30Z) - MacroHFT: Memory Augmented Context-aware Reinforcement Learning On High Frequency Trading [20.3106468936159]
強化学習(RL)は、高周波取引(HFT)のもう一つの魅力あるアプローチとなっている。
我々は,新しいメモリ拡張コンテキスト認識強化学習手法であるOn HFT, empha.k. MacroHFTを提案する。
マイクロレベルのトレーディングタスクにおいて,MacroHFTは最先端のパフォーマンスを実現することができることを示す。
論文 参考訳(メタデータ) (2024-06-20T17:48:24Z) - MOT: A Mixture of Actors Reinforcement Learning Method by Optimal Transport for Algorithmic Trading [6.305870529904885]
マーケットの異なるパターンをモデル化するために,複数のアクターを非交叉表現学習で設計するMOTを提案する。
将来の市場データによる実験結果から,MOTはリスクのバランスを保ちながら優れた収益性を示すことが示された。
論文 参考訳(メタデータ) (2024-06-03T01:42:52Z) - Deep Q-Learning Market Makers in a Multi-Agent Simulated Stock Market [58.720142291102135]
本稿では,エージェント・ベースの観点から,これらのマーケット・メーカーの戦略に関する研究に焦点をあてる。
模擬株式市場における知的市場マーカー作成のための強化学習(Reinforcement Learning, RL)の適用を提案する。
論文 参考訳(メタデータ) (2021-12-08T14:55:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。