論文の概要: MTS: A Deep Reinforcement Learning Portfolio Management Framework with Time-Awareness and Short-Selling
- arxiv url: http://arxiv.org/abs/2503.04143v1
- Date: Thu, 06 Mar 2025 06:41:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-07 17:59:00.69996
- Title: MTS: A Deep Reinforcement Learning Portfolio Management Framework with Time-Awareness and Short-Selling
- Title(参考訳): MTS:タイムアウェアネスとショートセーリングを備えた深層強化学習ポートフォリオ管理フレームワーク
- Authors: Fengchen Gu, Zhengyong Jiang, Ángel F. García-Fernández, Angelos Stefanidis, Jionglong Su, Huakang Li,
- Abstract要約: 本稿では,時間認識と短時間販売を伴うDeep Reinforcement Learning Portfolio Management Frameworkを紹介する。
動的リスク管理の限界、時間的市場の利用、短期販売のような複雑な取引戦略の導入に対処する。
シャープ、オメガ、ソルティーノ比の累積リターンを継続的に達成し、リスクとリターンのバランスをとる効果を裏付ける。
- 参考スコア(独自算出の注目度): 0.8642326601683299
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Portfolio management remains a crucial challenge in finance, with traditional methods often falling short in complex and volatile market environments. While deep reinforcement approaches have shown promise, they still face limitations in dynamic risk management, exploitation of temporal markets, and incorporation of complex trading strategies such as short-selling. These limitations can lead to suboptimal portfolio performance, increased vulnerability to market volatility, and missed opportunities in capturing potential returns from diverse market conditions. This paper introduces a Deep Reinforcement Learning Portfolio Management Framework with Time-Awareness and Short-Selling (MTS), offering a robust and adaptive strategy for sustainable investment performance. This framework utilizes a novel encoder-attention mechanism to address the limitations by incorporating temporal market characteristics, a parallel strategy for automated short-selling based on market trends, and risk management through innovative Incremental Conditional Value at Risk, enhancing adaptability and performance. Experimental validation on five diverse datasets from 2019 to 2023 demonstrates MTS's superiority over traditional algorithms and advanced machine learning techniques. MTS consistently achieves higher cumulative returns, Sharpe, Omega, and Sortino ratios, underscoring its effectiveness in balancing risk and return while adapting to market dynamics. MTS demonstrates an average relative increase of 30.67% in cumulative returns and 29.33% in Sharpe ratio compared to the next best-performing strategies across various datasets.
- Abstract(参考訳): ポートフォリオ管理は金融にとって重要な課題であり、伝統的手法は複雑で不安定な市場環境においてしばしば不足している。
深い強化アプローチは将来性を示しているが、動的リスク管理、時間的市場の活用、短期販売のような複雑な取引戦略の導入には限界がある。
これらの制限は、最適以下のポートフォリオのパフォーマンス、市場のボラティリティに対する脆弱性の増加、および様々な市場の状況から利益を得る機会の欠如につながる可能性がある。
本稿では,MTS(Time-Awareness and Short-Selling)を用いたDeep Reinforcement Learning Portfolio Management Frameworkを導入する。
この枠組みは、時間的市場特性を取り入れた新たなエンコーダ・アテンション機構、市場動向に基づく自動短売の並行戦略、革新的インクリメンタル・コンディショナル・バリュー・アット・リスクによるリスク管理、適応性とパフォーマンスの向上による制限に対処する。
2019年から2023年までの5つの多様なデータセットに対する実験的検証は、MSSが従来のアルゴリズムや高度な機械学習技術よりも優れていることを示している。
MTSは高い累積リターン、シャープ、オメガ、ソルティーノ比を一貫して達成し、市場ダイナミクスに適応しながらリスクとリターンのバランスをとる効果を裏付けている。
MTSは、累積リターンが30.67%、シャープ比が29.33%の平均相対的な増加を示した。
関連論文リスト
- Do We Truly Need So Many Samples? Multi-LLM Repeated Sampling Efficiently Scales Test-Time Compute [55.330813919992465]
本稿では,テスト時間計算のスケールアップによるLCM性能向上のための,シンプルで効果的で費用効率のよい手法を提案する。
当社の戦略は,複数のモデルを組み込んで,補完的な強みを活用するという,新たなツイストによって,繰り返しサンプリングされる投票フレームワークを基盤としています。
論文 参考訳(メタデータ) (2025-04-01T13:13:43Z) - MetaTrading: An Immersion-Aware Model Trading Framework for Vehicular Metaverse Services [94.61039892220037]
我々は、フェデレーション学習(FL)によるプライバシーを確保しつつ、サービスのデータ提供を容易にする没入型モデルトレーディングフレームワークを提案する。
我々は,資源制約下での高価値モデルに貢献するために,メタバースユーザ(MU)にインセンティブを与えるインセンティブ機構を設計する。
我々は、MUやその他のMSPに関するプライベート情報にアクセスすることなく、深層強化学習に基づく完全に分散された動的報酬アルゴリズムを開発する。
論文 参考訳(メタデータ) (2024-10-25T16:20:46Z) - Value-Based Deep Multi-Agent Reinforcement Learning with Dynamic Sparse Training [38.03693752287459]
マルチエージェント強化学習(MARL)は、マルチエージェントシナリオにおいて、多数のパラメータを持つニューラルネットワークに依存している。
本稿では,動的スパーストレーニング(DST)の利用法を提案する。
本稿では,学習目標の信頼性とサンプル分布の合理性を同時に向上することを目的とした,革新的なマルチエージェントスパーストレーニング(MAST)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-28T15:57:24Z) - Optimizing Portfolio with Two-Sided Transactions and Lending: A Reinforcement Learning Framework [0.0]
本研究では,リスクの高い環境に適した強化学習に基づくポートフォリオ管理モデルを提案する。
マルチヘッドアテンションを持つ畳み込みニューラルネットワークを用いたソフトアクタ・クリティカル(SAC)エージェントを用いてモデルを実装した。
市場のボラティリティ(変動性)が変化する2つの16カ月間にわたってテストされたこのモデルは、ベンチマークを著しく上回った。
論文 参考訳(メタデータ) (2024-08-09T23:36:58Z) - Explainable Post hoc Portfolio Management Financial Policy of a Deep Reinforcement Learning agent [44.99833362998488]
我々はポートフォリオ管理のための新しい説明可能な深層強化学習(XDRL)アプローチを開発した。
方法論を実践することにより、エージェントの行動を予測する時間内に解釈し、投資政策の要件に従うかどうかを評価することができる。
論文 参考訳(メタデータ) (2024-07-19T17:40:39Z) - Developing A Multi-Agent and Self-Adaptive Framework with Deep Reinforcement Learning for Dynamic Portfolio Risk Management [1.2016264781280588]
ポートフォリオ全体のリターンと潜在的なリスクの間のトレードオフのバランスをとるために,マルチエージェント強化学習(RL)アプローチを提案する。
得られた実験結果から,提案したMASAフレームワークの有効性が明らかとなった。
論文 参考訳(メタデータ) (2024-02-01T11:31:26Z) - IMM: An Imitative Reinforcement Learning Approach with Predictive
Representation Learning for Automatic Market Making [33.23156884634365]
強化学習技術は量的取引において顕著な成功を収めた。
既存のRLベースのマーケットメイキング手法のほとんどは、単価レベルの戦略の最適化に重点を置いている。
Imitative Market Maker (IMM) は、準最適信号に基づく専門家の知識と直接的な政策相互作用の両方を活用する新しいRLフレームワークである。
論文 参考訳(メタデータ) (2023-08-17T11:04:09Z) - Constructing Time-Series Momentum Portfolios with Deep Multi-Task
Learning [5.88864611435337]
本稿では、ポートフォリオ構築とボラティリティに関連する様々な補助的タスクを共同で学習するディープニューラルネットワークアーキテクチャにおいて、Multi-Task Learning(MTL)を用いた新しいアプローチを提案する。
最大3点までの取引コストを考慮に入れたとしても,既存のTSMOM戦略よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-08T13:04:44Z) - Can Perturbations Help Reduce Investment Risks? Risk-Aware Stock
Recommendation via Split Variational Adversarial Training [44.7991257631318]
本稿では,リスクを意識したストックレコメンデーションのための新しいSVAT法を提案する。
株式レコメンデーションモデルのボラティリティを下げることで、SVATは投資リスクを効果的に低減し、リスク調整利益の点で最先端のベースラインを30%以上上回ります。
論文 参考訳(メタデータ) (2023-04-20T12:10:12Z) - DeepScalper: A Risk-Aware Reinforcement Learning Framework to Capture
Fleeting Intraday Trading Opportunities [33.28409845878758]
日内取引のための深層強化学習フレームワークであるDeepScalperを提案する。
我々は、DeepScalperが4つの財務基準において、最先端のベースラインを著しく上回っていることを示す。
論文 参考訳(メタデータ) (2021-12-15T15:24:02Z) - Deep Q-Learning Market Makers in a Multi-Agent Simulated Stock Market [58.720142291102135]
本稿では,エージェント・ベースの観点から,これらのマーケット・メーカーの戦略に関する研究に焦点をあてる。
模擬株式市場における知的市場マーカー作成のための強化学習(Reinforcement Learning, RL)の適用を提案する。
論文 参考訳(メタデータ) (2021-12-08T14:55:21Z) - Deep Reinforcement Learning for Long-Short Portfolio Optimization [7.131902599861306]
本稿では,実際の取引ルールに適合する短売制のポートフォリオ管理フレームワークであるDeep Reinforcement Learning (DRL)を構築した。
鍵となるイノベーションは、長期にわたるトランザクションの動的進化を考慮に入れた、継続的取引における包括的な短期販売メカニズムの開発である。
従来のアプローチと比較して、このモデルはリスク調整されたリターンを向上し、最大損失を低減します。
論文 参考訳(メタデータ) (2020-12-26T16:25:20Z) - Time your hedge with Deep Reinforcement Learning [0.0]
深層強化学習(DRL)は、市場情報とヘッジ戦略の割り当て決定の間のダイナミックな依存関係を作成することで、この課題に対処することができる。
i)行動決定に追加の文脈情報を使用し、(ii)共通の資産運用者の1日のラグ転倒を考慮し、ヘッジの再均衡を図るための観察と行動の間に1期間の遅れがあり、(iii)アンカードウォークフォワードトレーニングと呼ばれる反復的な試験方法により、安定性とロバスト性の観点から完全にテストされており、(iv)時系列のkフォールドクロスバリデーションと同様に、ヘッジの活用を可能にする。
論文 参考訳(メタデータ) (2020-09-16T06:43:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。