論文の概要: Reinforcement Learning for Portfolio Optimization with a Financial Goal and Defined Time Horizons
- arxiv url: http://arxiv.org/abs/2511.18076v1
- Date: Sat, 22 Nov 2025 14:21:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.613999
- Title: Reinforcement Learning for Portfolio Optimization with a Financial Goal and Defined Time Horizons
- Title(参考訳): 金融目標と定義時間ホライズンを用いたポートフォリオ最適化のための強化学習
- Authors: Fermat Leukam, Rock Stephane Koffi, Prudence Djagba,
- Abstract要約: 本研究は,G-Learningアルゴリズムを用いて,革新的なポートフォリオ最適化手法を提案する。
目標は、投資家の定期的な貢献を最小限にしつつ、目標日によってポートフォリオの価値を最大化することである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This research proposes an enhancement to the innovative portfolio optimization approach using the G-Learning algorithm, combined with parametric optimization via the GIRL algorithm (G-learning approach to the setting of Inverse Reinforcement Learning) as presented by. The goal is to maximize portfolio value by a target date while minimizing the investor's periodic contributions. Our model operates in a highly volatile market with a well-diversified portfolio, ensuring a low-risk level for the investor, and leverages reinforcement learning to dynamically adjust portfolio positions over time. Results show that we improved the Sharpe Ratio from 0.42, as suggested by recent studies using the same approach, to a value of 0.483 a notable achievement in highly volatile markets with diversified portfolios. The comparison between G-Learning and GIRL reveals that while GIRL optimizes the reward function parameters (e.g., lambda = 0.0012 compared to 0.002), its impact on portfolio performance remains marginal. This suggests that reinforcement learning methods, like G-Learning, already enable robust optimization. This research contributes to the growing development of reinforcement learning applications in financial decision-making, demonstrating that probabilistic learning algorithms can effectively align portfolio management strategies with investor needs.
- Abstract(参考訳): 本稿では,G-LearningアルゴリズムとGIRLアルゴリズム(逆強化学習設定へのG-ラーニング手法)によるパラメトリック最適化を組み合わせた,革新的なポートフォリオ最適化手法を提案する。
目標は、投資家の定期的な貢献を最小限にしつつ、目標日によってポートフォリオの価値を最大化することである。
当社のモデルは,ポートフォリオを多様化した高度変動市場において運用されており,投資家のリスクの低いレベルを確保し,強化学習を活用してポートフォリオポジションを時間とともに動的に調整する。
その結果,シャープ比を0.42から0.483に改善したことが明らかとなった。
G-LearningとGIRLを比較すると、GIRLは報酬関数パラメータ(例えば0.002と比較してラムダ = 0.0012)を最適化するが、ポートフォリオのパフォーマンスへの影響は依然として小さいことが分かる。
これは、G-Learningのような強化学習手法が、すでに堅牢な最適化を実現していることを示唆している。
本研究は、金融意思決定における強化学習アプリケーションの発展に寄与し、確率論的学習アルゴリズムがポートフォリオ管理戦略を投資家のニーズに効果的に整合させることができることを示す。
関連論文リスト
- Generative Actor Critic [74.04971271003869]
Generative Actor Critic (GAC) は、軌道上での関節分布の生成モデル学習として、テキスト政治評価を反映して、シーケンシャルな意思決定を分離する新しいフレームワークである。
Gym-MuJoCoとMaze2Dベンチマークの実験では、GACの強いオフライン性能と、最先端の手法と比較してオフラインからオフラインへの大幅な改善が示されている。
論文 参考訳(メタデータ) (2025-12-25T06:31:11Z) - FinXplore: An Adaptive Deep Reinforcement Learning Framework for Balancing and Discovering Investment Opportunities [4.042562775811427]
本研究では、既存資産の活用と新たな投資機会の探求を融合した投資展望を紹介する。
あるエージェントは既存の宇宙内の資産を割り当て、別のエージェントは拡張宇宙における新しい機会を探索する。
実験は、最先端のポートフォリオ戦略とベースライン手法に対する提案されたアプローチの優位性を示す。
論文 参考訳(メタデータ) (2025-09-05T10:20:32Z) - Building crypto portfolios with agentic AI [46.348283638884425]
暗号通貨市場の急速な成長は投資家に新たな機会を与えたが、同時に高いボラティリティがもたらされた。
本稿では,暗号アロケーションを自律的に構築し,評価するためのマルチエージェントシステムの実用化について述べる。
論文 参考訳(メタデータ) (2025-07-11T18:03:51Z) - Deep Reinforcement Learning for Investor-Specific Portfolio Optimization: A Volatility-Guided Asset Selection Approach [2.2835610890984164]
本研究では,投資家のリスクプロファイルに基づいてポートフォリオを動的に構築するボラティリティ誘導型ポートフォリオ最適化フレームワークを提案する。
提案手法の有効性はダウ30ドル指数の株を用いて確立された。
論文 参考訳(メタデータ) (2025-04-20T10:17:37Z) - Deep Reinforcement Learning for Online Optimal Execution Strategies [49.1574468325115]
本稿では,動的な金融市場における非マルコフ的最適実行戦略の学習に挑戦する。
我々は,Deep Deterministic Policy Gradient(DDPG)に基づく新しいアクター批判アルゴリズムを提案する。
提案アルゴリズムは最適実行戦略の近似に成功していることを示す。
論文 参考訳(メタデータ) (2024-10-17T12:38:08Z) - Quantum-Inspired Portfolio Optimization In The QUBO Framework [0.0]
最適混合資産の選択を目的としたポートフォリオ最適化について,量子インスパイアされた最適化手法を提案する。
本研究は、資産配分とポートフォリオ管理に有用なツールとしての可能性を示した、金融における量子インスパイアされた技術に関する文献の増大に寄与する。
論文 参考訳(メタデータ) (2024-10-08T11:36:43Z) - Monte Carlo Tree Search Boosts Reasoning via Iterative Preference Learning [55.96599486604344]
本稿では,Large Language Models (LLMs) の推論能力向上を目的とした,反復的な選好学習プロセスによるアプローチを提案する。
我々は、MCTS(Monte Carlo Tree Search)を用いて好みデータを反復的に収集し、そのルックアヘッド機能を利用して、インスタンスレベルの報酬をよりきめ細かいステップレベルの信号に分解する。
提案アルゴリズムはDPO(Direct Preference Optimization)を用いて,新たに生成されたステップレベルの優先度データを用いてLCMポリシーを更新する。
論文 参考訳(メタデータ) (2024-05-01T11:10:24Z) - Deep Reinforcement Learning and Mean-Variance Strategies for Responsible Portfolio Optimization [49.396692286192206]
本研究では,ESG状態と目的を取り入れたポートフォリオ最適化のための深層強化学習について検討する。
以上の結果から,ポートフォリオアロケーションに対する平均分散アプローチに対して,深層強化学習政策が競争力を発揮する可能性が示唆された。
論文 参考訳(メタデータ) (2024-03-25T12:04:03Z) - Unleashing the Potential of Large Language Models as Prompt Optimizers: Analogical Analysis with Gradient-based Model Optimizers [108.72225067368592]
本稿では,大規模言語モデル(LLM)に基づくプロンプトの設計について検討する。
モデルパラメータ学習における2つの重要な要素を同定する。
グラディエントにインスパイアされた Prompt ベースの GPO を開発した。
論文 参考訳(メタデータ) (2024-02-27T15:05:32Z) - Cryptocurrency Portfolio Optimization by Neural Networks [81.20955733184398]
本稿では,これらの投資商品を活用するために,ニューラルネットワークに基づく効果的なアルゴリズムを提案する。
シャープ比を最大化するために、各アセットの割り当て重量を時間間隔で出力するディープニューラルネットワークを訓練する。
ネットワークの特定の資産に対するバイアスを規制する新たな損失項を提案し,最小分散戦略に近い割り当て戦略をネットワークに学習させる。
論文 参考訳(メタデータ) (2023-10-02T12:33:28Z) - Reparameterized Variational Divergence Minimization for Stable Imitation [57.06909373038396]
確率的発散の選択における変動が、より高性能なILOアルゴリズムをもたらす可能性について検討する。
本稿では,提案する$f$-divergence最小化フレームワークの課題を軽減するために,逆模倣学習のための再パラメータ化手法を提案する。
経験的に、我々の設計選択は、ベースラインアプローチより優れ、低次元連続制御タスクにおける専門家のパフォーマンスとより密に適合するIOOアルゴリズムを許容することを示した。
論文 参考訳(メタデータ) (2020-06-18T19:04:09Z) - Deep Learning for Portfolio Optimization [5.833272638548154]
個々の資産を選択する代わりに、ポートフォリオを形成するために市場指標のETF(Exchange-Traded Funds)を交換します。
我々は,本手法を広範囲のアルゴリズムと比較し,本モデルがテスト期間中に最高の性能を得ることを示す。
論文 参考訳(メタデータ) (2020-05-27T21:28:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。