論文の概要: Hybrid LSTM and PPO Networks for Dynamic Portfolio Optimization
- arxiv url: http://arxiv.org/abs/2511.17963v1
- Date: Sat, 22 Nov 2025 07:57:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.547103
- Title: Hybrid LSTM and PPO Networks for Dynamic Portfolio Optimization
- Title(参考訳): 動的ポートフォリオ最適化のためのハイブリッドLSTMとPPOネットワーク
- Authors: Jun Kevin, Pujianto Yugopuspito,
- Abstract要約: 本稿では,Long Short-Term Memory(LSTM)予測とPPO強化学習戦略を融合したポートフォリオ最適化のためのハイブリッドフレームワークを提案する。
提案システムでは,時間的依存を捕捉する深部再帰ネットワークの予測能力を活用し,PPOエージェントは連続的な行動空間におけるポートフォリオ割り当てを適応的に改善する。
フレームワークのパフォーマンスは、年次リターン、ボラティリティ、シャープ比、最大ドローダウンメトリクスを使用して、同等の重み付け、インデックスベース、シングルモデルアプローチ(LSTMとPPOのみ)に対してベンチマークされる。
- 参考スコア(独自算出の注目度): 0.05475997486212839
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces a hybrid framework for portfolio optimization that fuses Long Short-Term Memory (LSTM) forecasting with a Proximal Policy Optimization (PPO) reinforcement learning strategy. The proposed system leverages the predictive power of deep recurrent networks to capture temporal dependencies, while the PPO agent adaptively refines portfolio allocations in continuous action spaces, allowing the system to anticipate trends while adjusting dynamically to market shifts. Using multi-asset datasets covering U.S. and Indonesian equities, U.S. Treasuries, and major cryptocurrencies from January 2018 to December 2024, the model is evaluated against several baselines, including equal-weight, index-style, and single-model variants (LSTM-only and PPO-only). The framework's performance is benchmarked against equal-weighted, index-based, and single-model approaches (LSTM-only and PPO-only) using annualized return, volatility, Sharpe ratio, and maximum drawdown metrics, each adjusted for transaction costs. The results indicate that the hybrid architecture delivers higher returns and stronger resilience under non-stationary market regimes, suggesting its promise as a robust, AI-driven framework for dynamic portfolio optimization.
- Abstract(参考訳): 本稿では,Long Short-Term Memory(LSTM)予測とPPO強化学習戦略を融合したポートフォリオ最適化のためのハイブリッドフレームワークを提案する。
提案システムでは、時間的依存を捉えるために、深い再帰的ネットワークの予測力を生かし、PPOエージェントは継続的な行動空間におけるポートフォリオ割り当てを適応的に改善し、市場シフトに動的に調整しながらトレンドを予測できるようにする。
2018年1月から2024年12月までの米国とインドネシアの株式、米国財務省、主要暗号通貨を対象とするマルチアセットデータセットを使用して、同モデルは等重量、インデックススタイル、シングルモデル変種(LSTMのみ、PPOのみ)を含むいくつかのベースラインに対して評価される。
フレームワークのパフォーマンスは、年次リターン、ボラティリティ、シャープ比、最大ダウンダウンメトリクスを使用して、それぞれトランザクションコストのために調整された等重量、インデックスベース、シングルモデルアプローチ(LSTMとPPOのみ)に対してベンチマークされる。
結果として、ハイブリッドアーキテクチャは、非定常市場体制下でより高いリターンと強力なレジリエンスをもたらし、動的ポートフォリオ最適化のための堅牢でAI駆動のフレームワークとしての可能性を示唆している。
関連論文リスト
- BAPO: Stabilizing Off-Policy Reinforcement Learning for LLMs via Balanced Policy Optimization with Adaptive Clipping [69.74252624161652]
適応クリッピング(BAPO)を用いたBAlanced Policy Optimizationを提案する。
BAPOはクリッピングバウンダリを動的に調整し、適応的に正と負のコントリビューションを再バランスさせ、エントロピーを保持し、RL最適化を安定化させる。
AIME 2024とAIME 2025ベンチマークでは、7B BAPOモデルがSkyWork-OR1-7Bのようなオープンソースモデルを上回っています。
論文 参考訳(メタデータ) (2025-10-21T12:55:04Z) - From Headlines to Holdings: Deep Learning for Smarter Portfolio Decisions [4.288926547930663]
ディープラーニングを用いてポートフォリオの重みを学習するエンドツーエンドフレームワークを提案する。
我々は、セクターの多様性とニュース報道のバランスをとるために選ばれた6つのセクターにまたがる9つの米国株の枠組みを評価する。
株式の世界は限られているが、結果はポートフォリオ管理のための価格、リレーショナル、感情信号の統合の価値を浮き彫りにしている。
論文 参考訳(メタデータ) (2025-09-29T00:42:24Z) - Dependency Network-Based Portfolio Design with Forecasting and VaR Constraints [8.107171581224312]
本研究では,統計的ソーシャルネットワーク分析と時系列予測とリスク管理を統合したポートフォリオ最適化フレームワークを提案する。
S&P500(2020-2024)の毎日の株価データを用いて、Vector Autoregression(VAR)とForecast Error Variance Decomposition(FEVD)を介して依存ネットワークを構築します。
FEVDは、VARの予測誤差のばらつきを分解し、各株価のショックが、我々のネットワークにおいて影響ベースのエッジ重みを形成するために反転する他の不確実性情報にどれだけ寄与するかを定量化する。
リスク・アット・リスク(リスク・アット・リスク)に基づいて資本を割り当てた、トップランクの株式を使って動的ポートフォリオを構築する。
論文 参考訳(メタデータ) (2025-07-26T18:53:39Z) - Deep Learning Enhanced Multivariate GARCH [7.475786051454157]
Long Short-Term Memory enhanced BEKK (LSTM-BEKK) は、ディープラーニングを多変量GARCHプロセスに統合する。
本手法は,財務リターンデータにおける非線形,動的,高次元の依存構造をよりよく捉えるために設計されている。
複数の株式市場における実証的な結果は、LSTM-BEKKモデルがポートフォリオ外リスク予測において優れたパフォーマンスを達成することを確認している。
論文 参考訳(メタデータ) (2025-06-03T12:22:57Z) - Benchmarking Post-Training Quantization in LLMs: Comprehensive Taxonomy, Unified Evaluation, and Comparative Analysis [89.60263788590893]
後学習量子化(PTQ)技術は大規模言語モデル(LLM)圧縮に広く採用されている。
既存のアルゴリズムは主にパフォーマンスに重点を置いており、モデルサイズ、パフォーマンス、量子化ビット幅間のトレードオフを見越している。
本稿では LLM PTQ のための新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2025-02-18T07:35:35Z) - Regret-Optimized Portfolio Enhancement through Deep Reinforcement Learning and Future Looking Rewards [3.9795751586546766]
本稿では、PPO(Proximal Policy Optimization)を用いた既存のポートフォリオ戦略を強化するためのエージェントベースの新しいアプローチを提案する。
従来のポートフォリオ構築にのみ焦点をあてるのではなく、当社のアプローチは、PPOとOracleエージェントによって駆動される動的リバランスを通じて、すでに高性能な戦略を改善することを目的としています。
論文 参考訳(メタデータ) (2025-02-04T11:45:59Z) - BreakGPT: Leveraging Large Language Models for Predicting Asset Price Surges [55.2480439325792]
本稿では,時系列予測や資産価格の急上昇の予測に特化して,新たな大規模言語モデル(LLM)アーキテクチャであるBreakGPTを紹介する。
我々は、最小限のトレーニングで財務予測を行うための有望なソリューションとしてBreakGPTを紹介し、局所的およびグローバルな時間的依存関係をキャプチャする強力な競合相手として紹介する。
論文 参考訳(メタデータ) (2024-11-09T05:40:32Z) - AlphaDPO: Adaptive Reward Margin for Direct Preference Optimization [45.46582930202524]
$alpha$-DPOは、大規模言語モデルの適応的優先最適化アルゴリズムである。
ポリシーモデルと参照モデルのバランスを取り、パーソナライズされた報酬マージンを達成する。
さまざまなモデル設定でDPOとSimPOを一貫して上回ります。
論文 参考訳(メタデータ) (2024-10-14T04:29:57Z) - Long Short-Term Memory Neural Network for Financial Time Series [0.0]
株価変動の予測のために,単体および並列長短期記憶ニューラルネットワークのアンサンブルを提案する。
ストレートなトレーディング戦略では、ランダムに選択されたポートフォリオと指数のすべての株を含むポートフォリオを比較すると、LSTMアンサンブルから得られたポートフォリオが平均的なリターンと時間とともに高い累積リターンを提供することを示している。
論文 参考訳(メタデータ) (2022-01-20T15:17:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。