論文の概要: Deep Reinforcement Learning for Optimal Portfolio Allocation: A Comparative Study with Mean-Variance Optimization
- arxiv url: http://arxiv.org/abs/2602.17098v1
- Date: Thu, 19 Feb 2026 05:47:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-20 15:21:28.713104
- Title: Deep Reinforcement Learning for Optimal Portfolio Allocation: A Comparative Study with Mean-Variance Optimization
- Title(参考訳): 最適ポートフォリオ配置のための深層強化学習:平均変数最適化との比較検討
- Authors: Srijan Sood, Kassiani Papasotiriou, Marius Vaiciulis, Tucker Balch,
- Abstract要約: Deep Reinforcement Learning (DRL)は、過去の市場データに基づいてモデルフリーエージェントをトレーニングすることで、ポートフォリオ割り当てを最適化する際の有望な結果を示している。
我々の研究は、最適ポートフォリオ割り当てのためのモデルフリーDRLと平均変数ポートフォリオ最適化(MVO)の徹底的な比較である。
バックテストの結果は、シャープ比、最大ドローダウン、絶対リターンなど、多くのメトリクスにわたるDRLエージェントの強い性能を示している。
- 参考スコア(独自算出の注目度): 4.433030281282368
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Portfolio Management is the process of overseeing a group of investments, referred to as a portfolio, with the objective of achieving predetermined investment goals. Portfolio optimization is a key component that involves allocating the portfolio assets so as to maximize returns while minimizing risk taken. It is typically carried out by financial professionals who use a combination of quantitative techniques and investment expertise to make decisions about the portfolio allocation. Recent applications of Deep Reinforcement Learning (DRL) have shown promising results when used to optimize portfolio allocation by training model-free agents on historical market data. Many of these methods compare their results against basic benchmarks or other state-of-the-art DRL agents but often fail to compare their performance against traditional methods used by financial professionals in practical settings. One of the most commonly used methods for this task is Mean-Variance Portfolio Optimization (MVO), which uses historical time series information to estimate expected asset returns and covariances, which are then used to optimize for an investment objective. Our work is a thorough comparison between model-free DRL and MVO for optimal portfolio allocation. We detail the specifics of how to make DRL for portfolio optimization work in practice, also noting the adjustments needed for MVO. Backtest results demonstrate strong performance of the DRL agent across many metrics, including Sharpe ratio, maximum drawdowns, and absolute returns.
- Abstract(参考訳): ポートフォリオマネジメント(Portfolio Management)は、ポートフォリオと呼ばれる投資グループを監督するプロセスであり、所定の投資目標を達成することを目的としている。
ポートフォリオ最適化は、リスクを最小化しながらリターンを最大化するためにポートフォリオ資産を割り当てる重要なコンポーネントである。
一般的には、量的手法と投資の専門知識を組み合わせてポートフォリオの割り当てを決定する金融専門家によって行われる。
近年のDeep Reinforcement Learning (DRL) の応用は、過去の市場データに基づくモデルフリーエージェントのトレーニングにより、ポートフォリオ割り当てを最適化する上で有望な結果を示している。
これらの手法の多くは、その結果を基本的なベンチマークや他の最先端のDRLエージェントと比較するが、実際的な設定で金融専門家が使用する従来の手法と比較することができないことが多い。
平均変動ポートフォリオ最適化(Mean-Variance Portfolio Optimization, MVO)は、過去の時系列情報を用いて期待される資産のリターンと共分散を推定し、投資目標のために最適化する手法である。
我々の研究は、最適ポートフォリオ割り当てのためのモデルフリーDRLとMVOの徹底的な比較である。
ポートフォリオ最適化のためのDRLを実際に動作させる方法についての詳細を述べるとともに、MVOに必要な調整についても述べる。
バックテストの結果は、シャープ比、最大ドローダウン、絶対リターンなど、多くのメトリクスにわたるDRLエージェントの強い性能を示している。
関連論文リスト
- Generative AI-enhanced Sector-based Investment Portfolio Construction [12.174346896225153]
本稿では,大規模言語モデル(LLM)を量的セクターベースポートフォリオ構築に適用する方法について検討する。
我々は、S&P 500セクターインデックス内の投資可能な株式の宇宙を特定するためにLLMを使用する。
従来のポートフォリオ最適化手法と組み合わせて、それらの選択がどのように機能するかを評価する。
論文 参考訳(メタデータ) (2025-12-31T00:19:41Z) - Accelerating RL for LLM Reasoning with Optimal Advantage Regression [52.0792918455501]
本稿では,最適優位関数を直接近似する新しい2段階ポリシー最適化フレームワークを提案する。
A$*-POは、幅広い数学的推論ベンチマークで競合性能を達成する。
PPO、GRPO、REBELと比較して、トレーニング時間を最大2$times$、ピークメモリ使用率を30%以上削減する。
論文 参考訳(メタデータ) (2025-05-27T03:58:50Z) - Your Offline Policy is Not Trustworthy: Bilevel Reinforcement Learning for Sequential Portfolio Optimization [82.03139922490796]
強化学習(Reinforcement Learning, RL)は、過去のデータを用いたリスクを最小限にしつつ累積リターンを最大化することを目的とした、株式取引のような逐次的ポートフォリオ最適化タスクにおいて、大きな可能性を示してきた。
従来のRLアプローチは、固定データセット内での振る舞いの購入と販売を最適に記憶するだけのポリシーを生成することが多い。
当社のアプローチでは,ポートフォリオ最適化を新たなタイプの部分オフラインRL問題として捉え,2つの技術的貢献を行う。
論文 参考訳(メタデータ) (2025-05-19T06:37:25Z) - Deep Reinforcement Learning for Investor-Specific Portfolio Optimization: A Volatility-Guided Asset Selection Approach [2.2835610890984164]
本研究では,投資家のリスクプロファイルに基づいてポートフォリオを動的に構築するボラティリティ誘導型ポートフォリオ最適化フレームワークを提案する。
提案手法の有効性はダウ30ドル指数の株を用いて確立された。
論文 参考訳(メタデータ) (2025-04-20T10:17:37Z) - VinePPO: Refining Credit Assignment in RL Training of LLMs [66.80143024475635]
我々は,言語環境の柔軟性を利用してモンテカルロをベースとした推定値を計算する,簡単なアプローチであるVinePPOを提案する。
本手法は,MATHおよびGSM8Kデータセット間のPPOおよび他のベースラインをウォールクロック時間以下で連続的に上回る。
論文 参考訳(メタデータ) (2024-10-02T15:49:30Z) - Monte Carlo Tree Search Boosts Reasoning via Iterative Preference Learning [55.96599486604344]
本稿では,Large Language Models (LLMs) の推論能力向上を目的とした,反復的な選好学習プロセスによるアプローチを提案する。
我々は、MCTS(Monte Carlo Tree Search)を用いて好みデータを反復的に収集し、そのルックアヘッド機能を利用して、インスタンスレベルの報酬をよりきめ細かいステップレベルの信号に分解する。
提案アルゴリズムはDPO(Direct Preference Optimization)を用いて,新たに生成されたステップレベルの優先度データを用いてLCMポリシーを更新する。
論文 参考訳(メタデータ) (2024-05-01T11:10:24Z) - Deep Reinforcement Learning and Mean-Variance Strategies for Responsible Portfolio Optimization [49.396692286192206]
本研究では,ESG状態と目的を取り入れたポートフォリオ最適化のための深層強化学習について検討する。
以上の結果から,ポートフォリオアロケーションに対する平均分散アプローチに対して,深層強化学習政策が競争力を発揮する可能性が示唆された。
論文 参考訳(メタデータ) (2024-03-25T12:04:03Z) - Combining Transformer based Deep Reinforcement Learning with
Black-Litterman Model for Portfolio Optimization [0.0]
モデルフリーのアルゴリズムとして、深層強化学習(DRL)エージェントは、教師なしの方法で環境と対話することで学習し、決定する。
DRLエージェントとBlack-Litterman (BL)モデルを組み合わせたハイブリッドポートフォリオ最適化モデルを提案する。
我々のDRLエージェントは、様々な比較ポートフォリオ選択戦略と代替DRLフレームワークを、累積リターンで少なくとも42%上回っている。
論文 参考訳(メタデータ) (2024-02-23T16:01:37Z) - Mean-Variance Efficient Collaborative Filtering for Stock Recommendation [33.04652311923051]
従来の投資レコメンデーションは高リターン株や高度に多様化したポートフォリオに重点を置いており、しばしばユーザーの好みを無視している。
ポートフォリオ理論とユーザの好みを最適にブレンドする平均分散効率的な協調フィルタリング(MVECF)を提案する。
論文 参考訳(メタデータ) (2023-06-11T04:51:29Z) - Deep Reinforcement Learning for Long-Short Portfolio Optimization [7.131902599861306]
本稿では,実際の取引ルールに適合する短売制のポートフォリオ管理フレームワークであるDeep Reinforcement Learning (DRL)を構築した。
鍵となるイノベーションは、長期にわたるトランザクションの動的進化を考慮に入れた、継続的取引における包括的な短期販売メカニズムの開発である。
従来のアプローチと比較して、このモデルはリスク調整されたリターンを向上し、最大損失を低減します。
論文 参考訳(メタデータ) (2020-12-26T16:25:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。