論文の概要: Market Making Strategies with Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2507.18680v1
- Date: Thu, 24 Jul 2025 16:17:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-28 16:16:48.704323
- Title: Market Making Strategies with Reinforcement Learning
- Title(参考訳): 強化学習による市場形成戦略
- Authors: Óscar Fernández Vicente,
- Abstract要約: 市場メーカー(MM)は流動性の提供において基本的な役割を担っているが、在庫リスク、競争、非定常市場ダイナミクスから生じる重大な課題に直面している。
本研究は, 自律的, 適応的, 収益的な市場形成戦略を開発するために, 強化学習をいかに活用できるかを考察する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This thesis presents the results of a comprehensive research project focused on applying Reinforcement Learning (RL) to the problem of market making in financial markets. Market makers (MMs) play a fundamental role in providing liquidity, yet face significant challenges arising from inventory risk, competition, and non-stationary market dynamics. This research explores how RL, particularly Deep Reinforcement Learning (DRL), can be employed to develop autonomous, adaptive, and profitable market making strategies. The study begins by formulating the MM task as a reinforcement learning problem, designing agents capable of operating in both single-agent and multi-agent settings within a simulated financial environment. It then addresses the complex issue of inventory management using two complementary approaches: reward engineering and Multi-Objective Reinforcement Learning (MORL). While the former uses dynamic reward shaping to guide behavior, the latter leverages Pareto front optimization to explicitly balance competing objectives. To address the problem of non-stationarity, the research introduces POW-dTS, a novel policy weighting algorithm based on Discounted Thompson Sampling. This method allows agents to dynamically select and combine pretrained policies, enabling continual adaptation to shifting market conditions. The experimental results demonstrate that the proposed RL-based approaches significantly outperform traditional and baseline algorithmic strategies across various performance metrics. Overall, this research thesis contributes new methodologies and insights for the design of robust, efficient, and adaptive market making agents, reinforcing the potential of RL to transform algorithmic trading in complex financial systems.
- Abstract(参考訳): 本論文は、金融市場における市場形成問題に対する強化学習(RL)の適用に焦点を当てた総合的な研究プロジェクトの結果を提示する。
市場メーカー(MM)は流動性の提供において基本的な役割を担っているが、在庫リスク、競争、非定常市場ダイナミクスから生じる重大な課題に直面している。
本研究では,RL,特にDep Reinforcement Learning(DRL)を用いて,自律的,適応的,利益性の高い市場形成戦略を開発する方法について検討する。
この研究は、MMタスクを強化学習問題として定式化し、シミュレーションされた金融環境内で単エージェントと多エージェントの両方で動作可能なエージェントを設計することから始まった。
次に、報酬工学とMORL(Multi-Objective Reinforcement Learning)という2つの補完的なアプローチを用いて、在庫管理の複雑な問題に対処する。
前者は動的報酬のシェーピングを使って振る舞いを誘導するが、後者はParetoのフロント最適化を活用して競合する目的を明確にバランスさせる。
非定常性の問題に対処するために、この研究は、非定常トンプソンサンプリングに基づく新しいポリシー重み付けアルゴリズムであるPOW-dTSを導入する。
この方法は、エージェントが動的に事前訓練されたポリシーを選択し、組み合わせることを可能にし、市場の状況の変化への継続的な適応を可能にする。
実験結果から,提案手法は従来のアルゴリズムとベースラインのアルゴリズム戦略を,様々な性能指標で大きく上回っていることがわかった。
全体として、この論文は、複雑な金融システムにおけるアルゴリズム取引を変革するRLの可能性を強化し、ロバストで効率的で適応的な市場形成エージェントの設計のための新しい方法論と洞察に貢献している。
関連論文リスト
- Agentic Reinforced Policy Optimization [66.96989268893932]
検証可能な報酬付き大規模強化学習(RLVR)は,大規模言語モデル(LLM)を単一ターン推論タスクに活用する効果を実証している。
現在のRLアルゴリズムは、モデル固有のロングホライゾン推論能力と、マルチターンツールインタラクションにおけるその習熟性のバランスが不十分である。
エージェント強化ポリシー最適化(ARPO: Agentic Reinforced Policy Optimization)は,マルチターンLDMエージェントを学習するためのエージェントRLアルゴリズムである。
論文 参考訳(メタデータ) (2025-07-26T07:53:11Z) - Preference Optimization for Combinatorial Optimization Problems [54.87466279363487]
強化学習(Reinforcement Learning, RL)は、ニューラルネットワーク最適化のための強力なツールとして登場した。
大幅な進歩にもかかわらず、既存のRLアプローチは報酬信号の減少や大規模な行動空間における非効率な探索といった課題に直面している。
統計的比較モデルを用いて定量的報酬信号を定性的選好信号に変換する新しい手法であるPreference Optimizationを提案する。
論文 参考訳(メタデータ) (2025-05-13T16:47:00Z) - ReMA: Learning to Meta-think for LLMs with Multi-Agent Reinforcement Learning [53.817538122688944]
Reinforced Meta-thinking Agents (ReMA) を導入し,Large Language Models (LLMs) の推論からメタ思考行動を求める。
ReMAは、推論プロセスを2つの階層的なエージェントに分解する。戦略上の監視と計画を生成するハイレベルなメタ思考エージェントと、詳細な実行のための低レベルな推論エージェントである。
単ターン実験による実験結果から、ReMAは複雑な推論タスクにおいて単エージェントRLベースラインよりも優れることが示された。
論文 参考訳(メタデータ) (2025-03-12T16:05:31Z) - Towards Sample-Efficiency and Generalization of Transfer and Inverse Reinforcement Learning: A Comprehensive Literature Review [50.67937325077047]
本稿では,転送および逆強化学習(T-IRL)によるRLアルゴリズムのサンプル効率と一般化を実現するための総合的なレビューを行う。
以上の結果から,最近の研究成果の大部分は,人間のループとシム・トゥ・リアル戦略を活用することで,上記の課題に対処していることが示唆された。
IRL構造の下では、経験の少ない移行と、そのようなフレームワークのマルチエージェントおよびマルチインテンション問題への拡張を必要とするトレーニングスキームが近年研究者の優先事項となっている。
論文 参考訳(メタデータ) (2024-11-15T15:18:57Z) - From Novice to Expert: LLM Agent Policy Optimization via Step-wise Reinforcement Learning [62.54484062185869]
本稿では,エージェントの強化学習プロセスの最適化にステップワイド報酬を利用するStepAgentを紹介する。
エージェント反射とポリシー調整を容易にする暗黙の逆・逆の強化学習手法を提案する。
論文 参考訳(メタデータ) (2024-11-06T10:35:11Z) - Developing A Multi-Agent and Self-Adaptive Framework with Deep Reinforcement Learning for Dynamic Portfolio Risk Management [1.2016264781280588]
ポートフォリオ全体のリターンと潜在的なリスクの間のトレードオフのバランスをとるために,マルチエージェント強化学習(RL)アプローチを提案する。
得られた実験結果から,提案したMASAフレームワークの有効性が明らかとなった。
論文 参考訳(メタデータ) (2024-02-01T11:31:26Z) - From Bandits Model to Deep Deterministic Policy Gradient, Reinforcement
Learning with Contextual Information [4.42532447134568]
本研究では,文脈情報による問題を克服するために2つの手法を用いる。
量的市場における戦略的トレーディングを検討するため、我々はCPPI(Constant proportion portfolio Insurance)と呼ばれる初期の金融トレーディング戦略をDDPG(Deep Deterministic Policy gradient)に統合した。
実験の結果,両手法が強化学習の進行を加速し,最適解が得られることがわかった。
論文 参考訳(メタデータ) (2023-10-01T11:25:20Z) - Harnessing Deep Q-Learning for Enhanced Statistical Arbitrage in
High-Frequency Trading: A Comprehensive Exploration [0.0]
強化学習(Reinforcement Learning、RL)は、エージェントが環境と対話することで学習する機械学習の分野である。
本稿では,HFT(High-Frequency Trading)シナリオに適した統計仲裁手法におけるRLの統合について述べる。
広範なシミュレーションやバックテストを通じて、RLはトレーディング戦略の適応性を高めるだけでなく、収益性指標の改善やリスク調整されたリターンの期待も示している。
論文 参考訳(メタデータ) (2023-09-13T06:15:40Z) - IMM: An Imitative Reinforcement Learning Approach with Predictive
Representation Learning for Automatic Market Making [33.23156884634365]
強化学習技術は量的取引において顕著な成功を収めた。
既存のRLベースのマーケットメイキング手法のほとんどは、単価レベルの戦略の最適化に重点を置いている。
Imitative Market Maker (IMM) は、準最適信号に基づく専門家の知識と直接的な政策相互作用の両方を活用する新しいRLフレームワークである。
論文 参考訳(メタデータ) (2023-08-17T11:04:09Z) - Product Segmentation Newsvendor Problems: A Robust Learning Approach [6.346881818701668]
商品セグメンテーションニューズベンダー問題は、ニューズベンダー問題の新たな変種である。
本稿では、ロバストな政策の魅力を高めるために、ロバストな学習という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2022-07-08T10:13:10Z) - Deep Q-Learning Market Makers in a Multi-Agent Simulated Stock Market [58.720142291102135]
本稿では,エージェント・ベースの観点から,これらのマーケット・メーカーの戦略に関する研究に焦点をあてる。
模擬株式市場における知的市場マーカー作成のための強化学習(Reinforcement Learning, RL)の適用を提案する。
論文 参考訳(メタデータ) (2021-12-08T14:55:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。