論文の概要: MTS: A Deep Reinforcement Learning Portfolio Management Framework with Time-Awareness and Short-Selling
- arxiv url: http://arxiv.org/abs/2503.04143v1
- Date: Thu, 06 Mar 2025 06:41:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-07 16:01:11.430329
- Title: MTS: A Deep Reinforcement Learning Portfolio Management Framework with Time-Awareness and Short-Selling
- Title(参考訳): MTS:タイムアウェアネスとショートセーリングを備えた深層強化学習ポートフォリオ管理フレームワーク
- Authors: Fengchen Gu, Zhengyong Jiang, Ángel F. García-Fernández, Angelos Stefanidis, Jionglong Su, Huakang Li,
- Abstract要約: 本稿では,時間認識と短時間販売を伴うDeep Reinforcement Learning Portfolio Management Frameworkを紹介する。
動的リスク管理の限界、時間的市場の利用、短期販売のような複雑な取引戦略の導入に対処する。
シャープ、オメガ、ソルティーノ比の累積リターンを継続的に達成し、リスクとリターンのバランスをとる効果を裏付ける。
- 参考スコア(独自算出の注目度): 0.8642326601683299
- License:
- Abstract: Portfolio management remains a crucial challenge in finance, with traditional methods often falling short in complex and volatile market environments. While deep reinforcement approaches have shown promise, they still face limitations in dynamic risk management, exploitation of temporal markets, and incorporation of complex trading strategies such as short-selling. These limitations can lead to suboptimal portfolio performance, increased vulnerability to market volatility, and missed opportunities in capturing potential returns from diverse market conditions. This paper introduces a Deep Reinforcement Learning Portfolio Management Framework with Time-Awareness and Short-Selling (MTS), offering a robust and adaptive strategy for sustainable investment performance. This framework utilizes a novel encoder-attention mechanism to address the limitations by incorporating temporal market characteristics, a parallel strategy for automated short-selling based on market trends, and risk management through innovative Incremental Conditional Value at Risk, enhancing adaptability and performance. Experimental validation on five diverse datasets from 2019 to 2023 demonstrates MTS's superiority over traditional algorithms and advanced machine learning techniques. MTS consistently achieves higher cumulative returns, Sharpe, Omega, and Sortino ratios, underscoring its effectiveness in balancing risk and return while adapting to market dynamics. MTS demonstrates an average relative increase of 30.67% in cumulative returns and 29.33% in Sharpe ratio compared to the next best-performing strategies across various datasets.
- Abstract(参考訳): ポートフォリオ管理は金融にとって重要な課題であり、伝統的手法は複雑で不安定な市場環境においてしばしば不足している。
深い強化アプローチは将来性を示しているが、動的リスク管理、時間的市場の活用、短期販売のような複雑な取引戦略の導入には限界がある。
これらの制限は、最適以下のポートフォリオのパフォーマンス、市場のボラティリティに対する脆弱性の増加、および様々な市場の状況から利益を得る機会の欠如につながる可能性がある。
本稿では,MTS(Time-Awareness and Short-Selling)を用いたDeep Reinforcement Learning Portfolio Management Frameworkを導入する。
この枠組みは、時間的市場特性を取り入れた新たなエンコーダ・アテンション機構、市場動向に基づく自動短売の並行戦略、革新的インクリメンタル・コンディショナル・バリュー・アット・リスクによるリスク管理、適応性とパフォーマンスの向上による制限に対処する。
2019年から2023年までの5つの多様なデータセットに対する実験的検証は、MSSが従来のアルゴリズムや高度な機械学習技術よりも優れていることを示している。
MTSは高い累積リターン、シャープ、オメガ、ソルティーノ比を一貫して達成し、市場ダイナミクスに適応しながらリスクとリターンのバランスをとる効果を裏付けている。
MTSは、累積リターンが30.67%、シャープ比が29.33%の平均相対的な増加を示した。
関連論文リスト
- Optimizing Portfolio with Two-Sided Transactions and Lending: A Reinforcement Learning Framework [0.0]
本研究では,リスクの高い環境に適した強化学習に基づくポートフォリオ管理モデルを提案する。
マルチヘッドアテンションを持つ畳み込みニューラルネットワークを用いたソフトアクタ・クリティカル(SAC)エージェントを用いてモデルを実装した。
市場のボラティリティ(変動性)が変化する2つの16カ月間にわたってテストされたこのモデルは、ベンチマークを著しく上回った。
論文 参考訳(メタデータ) (2024-08-09T23:36:58Z) - RigorLLM: Resilient Guardrails for Large Language Models against Undesired Content [62.685566387625975]
現在の緩和戦略は効果はあるものの、敵の攻撃下では弾力性がない。
本稿では,大規模言語モデルのための弾力性ガードレール(RigorLLM)について紹介する。
論文 参考訳(メタデータ) (2024-03-19T07:25:02Z) - Developing A Multi-Agent and Self-Adaptive Framework with Deep Reinforcement Learning for Dynamic Portfolio Risk Management [1.2016264781280588]
ポートフォリオ全体のリターンと潜在的なリスクの間のトレードオフのバランスをとるために,マルチエージェント強化学習(RL)アプローチを提案する。
得られた実験結果から,提案したMASAフレームワークの有効性が明らかとなった。
論文 参考訳(メタデータ) (2024-02-01T11:31:26Z) - Diffusion Variational Autoencoder for Tackling Stochasticity in
Multi-Step Regression Stock Price Prediction [54.21695754082441]
長期的地平線上での多段階の株価予測は、ボラティリティの予測に不可欠である。
多段階の株価予測に対する現在の解決策は、主に単一段階の分類に基づく予測のために設計されている。
深層階層型変分オートコーダ(VAE)と拡散確率的手法を組み合わせてセック2seqの株価予測を行う。
本モデルでは, 予測精度と分散性の観点から, 最先端の解よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-18T16:21:15Z) - IMM: An Imitative Reinforcement Learning Approach with Predictive
Representation Learning for Automatic Market Making [33.23156884634365]
強化学習技術は量的取引において顕著な成功を収めた。
既存のRLベースのマーケットメイキング手法のほとんどは、単価レベルの戦略の最適化に重点を置いている。
Imitative Market Maker (IMM) は、準最適信号に基づく専門家の知識と直接的な政策相互作用の両方を活用する新しいRLフレームワークである。
論文 参考訳(メタデータ) (2023-08-17T11:04:09Z) - Constructing Time-Series Momentum Portfolios with Deep Multi-Task
Learning [5.88864611435337]
本稿では、ポートフォリオ構築とボラティリティに関連する様々な補助的タスクを共同で学習するディープニューラルネットワークアーキテクチャにおいて、Multi-Task Learning(MTL)を用いた新しいアプローチを提案する。
最大3点までの取引コストを考慮に入れたとしても,既存のTSMOM戦略よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-08T13:04:44Z) - HireVAE: An Online and Adaptive Factor Model Based on Hierarchical and
Regime-Switch VAE [113.47287249524008]
オンラインで適応的な環境で株価予測を行うファクターモデルを構築することは、依然としてオープンな疑問である。
本稿では,オンラインおよび適応型要素モデルであるHireVAEを,市場状況とストックワイド潜在要因の関係を埋め込んだ階層型潜在空間として提案する。
4つの一般的な実市場ベンチマークにおいて、提案されたHireVAEは、以前の手法よりもアクティブリターンの点で優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-06-05T12:58:13Z) - Can Perturbations Help Reduce Investment Risks? Risk-Aware Stock
Recommendation via Split Variational Adversarial Training [44.7991257631318]
本稿では,リスクを意識したストックレコメンデーションのための新しいSVAT法を提案する。
株式レコメンデーションモデルのボラティリティを下げることで、SVATは投資リスクを効果的に低減し、リスク調整利益の点で最先端のベースラインを30%以上上回ります。
論文 参考訳(メタデータ) (2023-04-20T12:10:12Z) - Deep Q-Learning Market Makers in a Multi-Agent Simulated Stock Market [58.720142291102135]
本稿では,エージェント・ベースの観点から,これらのマーケット・メーカーの戦略に関する研究に焦点をあてる。
模擬株式市場における知的市場マーカー作成のための強化学習(Reinforcement Learning, RL)の適用を提案する。
論文 参考訳(メタデータ) (2021-12-08T14:55:21Z) - Softmax with Regularization: Better Value Estimation in Multi-Agent
Reinforcement Learning [72.28520951105207]
q$-learningの過大評価は、シングルエージェント強化学習で広く研究されている重要な問題である。
ベースラインから逸脱する大きな関節動作値をペナライズする,新たな正規化ベースの更新方式を提案する。
本手法は,StarCraft IIマイクロマネジメントの課題に対して,一貫した性能向上を実現する。
論文 参考訳(メタデータ) (2021-03-22T14:18:39Z) - Time your hedge with Deep Reinforcement Learning [0.0]
深層強化学習(DRL)は、市場情報とヘッジ戦略の割り当て決定の間のダイナミックな依存関係を作成することで、この課題に対処することができる。
i)行動決定に追加の文脈情報を使用し、(ii)共通の資産運用者の1日のラグ転倒を考慮し、ヘッジの再均衡を図るための観察と行動の間に1期間の遅れがあり、(iii)アンカードウォークフォワードトレーニングと呼ばれる反復的な試験方法により、安定性とロバスト性の観点から完全にテストされており、(iv)時系列のkフォールドクロスバリデーションと同様に、ヘッジの活用を可能にする。
論文 参考訳(メタデータ) (2020-09-16T06:43:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。