論文の概要: QTMRL: An Agent for Quantitative Trading Decision-Making Based on Multi-Indicator Guided Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2508.20467v1
- Date: Thu, 28 Aug 2025 06:37:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-29 18:12:02.081605
- Title: QTMRL: An Agent for Quantitative Trading Decision-Making Based on Multi-Indicator Guided Reinforcement Learning
- Title(参考訳): QTMRL:多指標指導強化学習に基づく量的取引決定のためのエージェント
- Authors: Xiangdong Liu, Jiahao Chen,
- Abstract要約: 本稿では,多次元技術指標と強化学習(RL)を組み合わせた知的取引エージェントであるQTMRL(Quantitative Trading Multi-Indicator Reinforcement Learning)を提案する。
まず,S&P 500日毎OHLCVデータ(2000-2022)を用いて,5つのセクターにまたがる16の代表的な在庫について,23年間のS&P500日毎OHLCVデータ(2000-2022)を用いて総合的多指標データセットを構築した。
次に、データ処理、A2Cアルゴリズム、トレーディングエージェントモジュールを含むAdvantage Actor-Critic(A2C)アルゴリズムに基づく軽量RLフレームワークを設計する。
- 参考スコア(独自算出の注目度): 5.438637626629327
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In the highly volatile and uncertain global financial markets, traditional quantitative trading models relying on statistical modeling or empirical rules often fail to adapt to dynamic market changes and black swan events due to rigid assumptions and limited generalization. To address these issues, this paper proposes QTMRL (Quantitative Trading Multi-Indicator Reinforcement Learning), an intelligent trading agent combining multi-dimensional technical indicators with reinforcement learning (RL) for adaptive and stable portfolio management. We first construct a comprehensive multi-indicator dataset using 23 years of S&P 500 daily OHLCV data (2000-2022) for 16 representative stocks across 5 sectors, enriching raw data with trend, volatility, and momentum indicators to capture holistic market dynamics. Then we design a lightweight RL framework based on the Advantage Actor-Critic (A2C) algorithm, including data processing, A2C algorithm, and trading agent modules to support policy learning and actionable trading decisions. Extensive experiments compare QTMRL with 9 baselines (e.g., ARIMA, LSTM, moving average strategies) across diverse market regimes, verifying its superiority in profitability, risk adjustment, and downside risk control. The code of QTMRL is publicly available at https://github.com/ChenJiahaoJNU/QTMRL.git
- Abstract(参考訳): 非常に不安定で不確実なグローバル金融市場では、統計的モデリングや経験則に依存する伝統的な量的取引モデルは、厳密な仮定と限定的な一般化のために、動的市場の変化や黒い白鳥現象に適応できないことが多い。
本稿では,多次元技術指標と強化学習(RL)を組み合わせた知的取引エージェントであるQTMRL(Quantitative Trading Multi-Indicator Reinforcement Learning)を提案する。
まず,23年間のS&P 500日OHLCVデータ(2000-2022)を用いて,5つのセクターにまたがる16の代表的な在庫について総合的な多指標データセットを構築した。
そこで我々は,データ処理,A2Cアルゴリズム,および取引エージェントモジュールを含むアドバンテージ・アクター・クリティカル(A2C)アルゴリズムに基づく軽量なRLフレームワークを設計し,政策学習と行動可能な取引決定を支援する。
大規模な実験は、QTMRLと9つの基準線(例えば、ARIMA、LSTM、移動平均戦略)を様々な市場体制で比較し、利益性、リスク調整、ダウンサイドリスク管理の優位性を検証する。
QTMRLのコードはhttps://github.com/ChenJiahaoJNU/QTMRL.gitで公開されている。
関連論文リスト
- To Trade or Not to Trade: An Agentic Approach to Estimating Market Risk Improves Trading Decisions [0.0]
大規模言語モデル(LLM)はますますエージェントフレームワークにデプロイされている。
我々は LLM を用いて金融時系列の微分方程式を反復的に発見するエージェントシステムを開発した。
モデルインフォームドトレーディング戦略は標準LLMエージェントよりも優れていた。
論文 参考訳(メタデータ) (2025-07-11T13:29:32Z) - Your Offline Policy is Not Trustworthy: Bilevel Reinforcement Learning for Sequential Portfolio Optimization [82.03139922490796]
強化学習(Reinforcement Learning, RL)は、過去のデータを用いたリスクを最小限にしつつ累積リターンを最大化することを目的とした、株式取引のような逐次的ポートフォリオ最適化タスクにおいて、大きな可能性を示してきた。
従来のRLアプローチは、固定データセット内での振る舞いの購入と販売を最適に記憶するだけのポリシーを生成することが多い。
当社のアプローチでは,ポートフォリオ最適化を新たなタイプの部分オフラインRL問題として捉え,2つの技術的貢献を行う。
論文 参考訳(メタデータ) (2025-05-19T06:37:25Z) - When AI Meets Finance (StockAgent): Large Language Model-based Stock Trading in Simulated Real-world Environments [55.19252983108372]
LLMによって駆動される、StockAgentと呼ばれるマルチエージェントAIシステムを開発した。
StockAgentを使えば、ユーザーはさまざまな外部要因が投資家取引に与える影響を評価することができる。
AIエージェントに基づく既存のトレーディングシミュレーションシステムに存在するテストセットのリーク問題を回避する。
論文 参考訳(メタデータ) (2024-07-15T06:49:30Z) - MacroHFT: Memory Augmented Context-aware Reinforcement Learning On High Frequency Trading [20.3106468936159]
強化学習(RL)は、高周波取引(HFT)のもう一つの魅力あるアプローチとなっている。
我々は,新しいメモリ拡張コンテキスト認識強化学習手法であるOn HFT, empha.k. MacroHFTを提案する。
マイクロレベルのトレーディングタスクにおいて,MacroHFTは最先端のパフォーマンスを実現することができることを示す。
論文 参考訳(メタデータ) (2024-06-20T17:48:24Z) - Developing A Multi-Agent and Self-Adaptive Framework with Deep Reinforcement Learning for Dynamic Portfolio Risk Management [1.2016264781280588]
ポートフォリオ全体のリターンと潜在的なリスクの間のトレードオフのバランスをとるために,マルチエージェント強化学習(RL)アプローチを提案する。
得られた実験結果から,提案したMASAフレームワークの有効性が明らかとなった。
論文 参考訳(メタデータ) (2024-02-01T11:31:26Z) - Deep Q-Learning Market Makers in a Multi-Agent Simulated Stock Market [58.720142291102135]
本稿では,エージェント・ベースの観点から,これらのマーケット・メーカーの戦略に関する研究に焦点をあてる。
模擬株式市場における知的市場マーカー作成のための強化学習(Reinforcement Learning, RL)の適用を提案する。
論文 参考訳(メタデータ) (2021-12-08T14:55:21Z) - Reinforcement-Learning based Portfolio Management with Augmented Asset
Movement Prediction States [71.54651874063865]
ポートフォリオマネジメント(PM)は、最大利益や最小リスクといった投資目標を達成することを目的としている。
本稿では,PMのための新しいステート拡張RLフレームワークであるSARLを提案する。
当社の枠組みは, 金融PMにおける2つのユニークな課題に対処することを目的としている。(1) データの異種データ -- 資産毎の収集情報は通常, 多様性, ノイズ, 不均衡(ニュース記事など), (2) 環境の不確実性 -- 金融市場は多様で非定常である。
論文 参考訳(メタデータ) (2020-02-09T08:10:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。