論文の概要: Markowitz Meets Bellman: Knowledge-distilled Reinforcement Learning for Portfolio Management
- arxiv url: http://arxiv.org/abs/2405.05449v1
- Date: Wed, 8 May 2024 22:54:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-10 14:32:26.022710
- Title: Markowitz Meets Bellman: Knowledge-distilled Reinforcement Learning for Portfolio Management
- Title(参考訳): Markowitz氏とBellman: ポートフォリオマネジメントのための知識に富んだ強化学習
- Authors: Gang Hu, Ming Gu,
- Abstract要約: 本稿では、マルコウィッツのポートフォリオ理論と強化学習を組み合わせたハイブリッドアプローチを提案する。
特に,KDD (Knowledge Distillation DDPG) と呼ばれる本手法は,教師付きおよび強化学習段階の2段階からなる。
標準的な金融モデルとAIフレームワークの比較分析では、リターンやシャープ比、9つの評価指標などを使用して、モデルの優位性を明らかにします。
- 参考スコア(独自算出の注目度): 7.199922073535674
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Investment portfolios, central to finance, balance potential returns and risks. This paper introduces a hybrid approach combining Markowitz's portfolio theory with reinforcement learning, utilizing knowledge distillation for training agents. In particular, our proposed method, called KDD (Knowledge Distillation DDPG), consist of two training stages: supervised and reinforcement learning stages. The trained agents optimize portfolio assembly. A comparative analysis against standard financial models and AI frameworks, using metrics like returns, the Sharpe ratio, and nine evaluation indices, reveals our model's superiority. It notably achieves the highest yield and Sharpe ratio of 2.03, ensuring top profitability with the lowest risk in comparable return scenarios.
- Abstract(参考訳): 投資ポートフォリオは金融の中心であり、潜在的なリターンとリスクのバランスを取る。
本稿では,Markowitzのポートフォリオ理論と強化学習を組み合わせたハイブリッドアプローチを提案する。
特に,KDD (Knowledge Distillation DDPG) と呼ばれる本手法は,教師付きおよび強化学習段階の2段階からなる。
訓練されたエージェントはポートフォリオの組み立てを最適化します。
標準的な金融モデルとAIフレームワークの比較分析では、リターンやシャープ比、9つの評価指標などを使用して、モデルの優位性を明らかにします。
最大利回りとシャープ比は2.03であり、最大利益率を確保し、対等なリターンシナリオでは最も低いリスクを負う。
関連論文リスト
- Optimizing Portfolio with Two-Sided Transactions and Lending: A Reinforcement Learning Framework [0.0]
本研究では,リスクの高い環境に適した強化学習に基づくポートフォリオ管理モデルを提案する。
マルチヘッドアテンションを持つ畳み込みニューラルネットワークを用いたソフトアクタ・クリティカル(SAC)エージェントを用いてモデルを実装した。
市場のボラティリティ(変動性)が変化する2つの16カ月間にわたってテストされたこのモデルは、ベンチマークを著しく上回った。
論文 参考訳(メタデータ) (2024-08-09T23:36:58Z) - Deep Reinforcement Learning and Mean-Variance Strategies for Responsible Portfolio Optimization [49.396692286192206]
本研究では,ESG状態と目的を取り入れたポートフォリオ最適化のための深層強化学習について検討する。
以上の結果から,ポートフォリオアロケーションに対する平均分散アプローチに対して,深層強化学習政策が競争力を発揮する可能性が示唆された。
論文 参考訳(メタデータ) (2024-03-25T12:04:03Z) - Cryptocurrency Portfolio Optimization by Neural Networks [81.20955733184398]
本稿では,これらの投資商品を活用するために,ニューラルネットワークに基づく効果的なアルゴリズムを提案する。
シャープ比を最大化するために、各アセットの割り当て重量を時間間隔で出力するディープニューラルネットワークを訓練する。
ネットワークの特定の資産に対するバイアスを規制する新たな損失項を提案し,最小分散戦略に近い割り当て戦略をネットワークに学習させる。
論文 参考訳(メタデータ) (2023-10-02T12:33:28Z) - A Comparative Analysis of Portfolio Optimization Using Mean-Variance,
Hierarchical Risk Parity, and Reinforcement Learning Approaches on the Indian
Stock Market [0.0]
本稿では,3つのポートフォリオ最適化手法の性能の比較分析を行う。
ポートフォリオは、いくつかの株価データに基づいてトレーニングされ、テストされ、そのパフォーマンスは、年次リターン、年次リスク、シャープ比率で比較される。
論文 参考訳(メタデータ) (2023-05-27T16:38:18Z) - Can Perturbations Help Reduce Investment Risks? Risk-Aware Stock
Recommendation via Split Variational Adversarial Training [44.7991257631318]
本稿では,リスクを意識したストックレコメンデーションのための新しいSVAT法を提案する。
株式レコメンデーションモデルのボラティリティを下げることで、SVATは投資リスクを効果的に低減し、リスク調整利益の点で最先端のベースラインを30%以上上回ります。
論文 参考訳(メタデータ) (2023-04-20T12:10:12Z) - Factor Investing with a Deep Multi-Factor Model [123.52358449455231]
我々は、業界中立化と市場中立化モジュールを明確な財務見識をもって取り入れた、新しい深層多要素モデルを開発する。
実世界の株式市場データによるテストは、我々の深層多要素モデルの有効性を示している。
論文 参考訳(メタデータ) (2022-10-22T14:47:11Z) - Asset Allocation: From Markowitz to Deep Reinforcement Learning [2.0305676256390934]
資産配分とは、ポートフォリオの資産を常に再分配することでリスクと報酬のバランスをとることを目的とした投資戦略である。
我々は、多くの最適化手法の有効性と信頼性を決定するために、広範囲なベンチマーク研究を行う。
論文 参考訳(メタデータ) (2022-07-14T14:44:04Z) - Deep Risk Model: A Deep Learning Solution for Mining Latent Risk Factors
to Improve Covariance Matrix Estimation [8.617532047238461]
ニューラルネットワークによるリスクファクタを効果的に"設計"するためのディープラーニングソリューションを提案する。
提案手法は,R2$で測定した説明分散を1.9%以上高めることができ,また,グローバルな最小分散ポートフォリオのリスクを低減することができる。
論文 参考訳(メタデータ) (2021-07-12T05:30:50Z) - Softmax with Regularization: Better Value Estimation in Multi-Agent
Reinforcement Learning [72.28520951105207]
q$-learningの過大評価は、シングルエージェント強化学習で広く研究されている重要な問題である。
ベースラインから逸脱する大きな関節動作値をペナライズする,新たな正規化ベースの更新方式を提案する。
本手法は,StarCraft IIマイクロマネジメントの課題に対して,一貫した性能向上を実現する。
論文 参考訳(メタデータ) (2021-03-22T14:18:39Z) - Stock2Vec: A Hybrid Deep Learning Framework for Stock Market Prediction
with Representation Learning and Temporal Convolutional Network [71.25144476293507]
我々は、株式市場の日々の価格を予測するためのグローバルなハイブリッドディープラーニングフレームワークを開発することを提案した。
表現学習によって、私たちはStock2Vecという埋め込みを導きました。
我々のハイブリッドフレームワークは、両方の利点を統合し、いくつかの人気のあるベンチマークモデルよりも、株価予測タスクにおいてより良いパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-09-29T22:54:30Z) - MAPS: Multi-agent Reinforcement Learning-based Portfolio Management
System [23.657021288146158]
マルチエージェント強化学習に基づくポートフォリオ管理システム(MAPS)を提案する。
MAPSは、各エージェントが独立した「投資者」であり、独自のポートフォリオを作成する協調システムである。
米国の12年間の市場データによる実験の結果、MAPSはシャープ比でベースラインの大半を上回っている。
論文 参考訳(メタデータ) (2020-07-10T14:08:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。