論文の概要: Diffusion-Augmented Reinforcement Learning for Robust Portfolio Optimization under Stress Scenarios
- arxiv url: http://arxiv.org/abs/2510.07099v1
- Date: Wed, 08 Oct 2025 14:56:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.57626
- Title: Diffusion-Augmented Reinforcement Learning for Robust Portfolio Optimization under Stress Scenarios
- Title(参考訳): 応力シナリオ下におけるロバストポートフォリオ最適化のための拡散強化学習
- Authors: Himanshu Choudhary, Arishi Orra, Manoj Thakur,
- Abstract要約: ポートフォリオ管理のためのDARL(Denoising Diffusion-Augmented Reinforcement Learning)とDRL(Deep Reinforcement Learning)を統合した,DARL(Diffusion-Augmented Reinforcement Learning)と呼ばれる革新的なフレームワークを提案する。
DDPMを利用して, 各種応力強度を条件としたマーケットクラッシュシナリオを生成することにより, トレーニングデータの堅牢性を大幅に向上させる。
実証的な評価では、DARLは従来のベースラインよりも優れており、リスク調整されたリターンと、予期せぬ危機に対するレジリエンスを提供する。
- 参考スコア(独自算出の注目度): 4.042562775811427
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the ever-changing and intricate landscape of financial markets, portfolio optimisation remains a formidable challenge for investors and asset managers. Conventional methods often struggle to capture the complex dynamics of market behaviour and align with diverse investor preferences. To address this, we propose an innovative framework, termed Diffusion-Augmented Reinforcement Learning (DARL), which synergistically integrates Denoising Diffusion Probabilistic Models (DDPMs) with Deep Reinforcement Learning (DRL) for portfolio management. By leveraging DDPMs to generate synthetic market crash scenarios conditioned on varying stress intensities, our approach significantly enhances the robustness of training data. Empirical evaluations demonstrate that DARL outperforms traditional baselines, delivering superior risk-adjusted returns and resilience against unforeseen crises, such as the 2025 Tariff Crisis. This work offers a robust and practical methodology to bolster stress resilience in DRL-driven financial applications.
- Abstract(参考訳): 常に変化する金融市場の状況の中で、ポートフォリオの最適化は投資家や資産運用者にとって深刻な課題である。
従来の手法は、市場行動の複雑なダイナミクスを捉え、多様な投資家の好みに合わせるのに苦労することが多い。
そこで我々は,DARL(Denoising Diffusion-Augmented Reinforcement Learning)と呼ばれる革新的なフレームワークを提案し,ポートフォリオ管理のためにDDPM(Denoising Diffusion Probabilistic Models)とDRL(Deep Reinforcement Learning)を相乗的に統合する。
DDPMを利用して, 各種応力強度を条件としたマーケットクラッシュシナリオを生成することにより, トレーニングデータの堅牢性を大幅に向上させる。
実証的な評価では、DARLは従来の基準よりも優れており、2025年の関税危機のような予期せぬ危機に対して、リスク調整されたリターンとレジリエンスを提供する。
この研究は、DRL主導の金融アプリケーションにおけるストレスレジリエンスを促進する、堅牢で実用的な方法論を提供する。
関連論文リスト
- Adversarial Diffusion for Robust Reinforcement Learning [46.44328012099217]
我々はロバスト強化学習(AD-RRL)のための逆拡散を導入する。
AD-RRLは拡散過程を導出し、トレーニング中に最悪の場合の軌跡を生成し、累積リターンの条件値(CVaR)を効果的に最適化する。
標準ベンチマークにおける実験結果から、AD-RRLは既存のロバストなRL法と比較して、優れたロバスト性と性能を発揮することが示された。
論文 参考訳(メタデータ) (2025-09-28T12:34:35Z) - Building crypto portfolios with agentic AI [46.348283638884425]
暗号通貨市場の急速な成長は投資家に新たな機会を与えたが、同時に高いボラティリティがもたらされた。
本稿では,暗号アロケーションを自律的に構築し,評価するためのマルチエージェントシステムの実用化について述べる。
論文 参考訳(メタデータ) (2025-07-11T18:03:51Z) - Your Offline Policy is Not Trustworthy: Bilevel Reinforcement Learning for Sequential Portfolio Optimization [82.03139922490796]
強化学習(Reinforcement Learning, RL)は、過去のデータを用いたリスクを最小限にしつつ累積リターンを最大化することを目的とした、株式取引のような逐次的ポートフォリオ最適化タスクにおいて、大きな可能性を示してきた。
従来のRLアプローチは、固定データセット内での振る舞いの購入と販売を最適に記憶するだけのポリシーを生成することが多い。
当社のアプローチでは,ポートフォリオ最適化を新たなタイプの部分オフラインRL問題として捉え,2つの技術的貢献を行う。
論文 参考訳(メタデータ) (2025-05-19T06:37:25Z) - Deep Reinforcement Learning for Investor-Specific Portfolio Optimization: A Volatility-Guided Asset Selection Approach [2.2835610890984164]
本研究では,投資家のリスクプロファイルに基づいてポートフォリオを動的に構築するボラティリティ誘導型ポートフォリオ最適化フレームワークを提案する。
提案手法の有効性はダウ30ドル指数の株を用いて確立された。
論文 参考訳(メタデータ) (2025-04-20T10:17:37Z) - Explainable Post hoc Portfolio Management Financial Policy of a Deep Reinforcement Learning agent [44.99833362998488]
我々はポートフォリオ管理のための新しい説明可能な深層強化学習(XDRL)アプローチを開発した。
方法論を実践することにより、エージェントの行動を予測する時間内に解釈し、投資政策の要件に従うかどうかを評価することができる。
論文 参考訳(メタデータ) (2024-07-19T17:40:39Z) - Deep Reinforcement Learning and Mean-Variance Strategies for Responsible Portfolio Optimization [49.396692286192206]
本研究では,ESG状態と目的を取り入れたポートフォリオ最適化のための深層強化学習について検討する。
以上の結果から,ポートフォリオアロケーションに対する平均分散アプローチに対して,深層強化学習政策が競争力を発揮する可能性が示唆された。
論文 参考訳(メタデータ) (2024-03-25T12:04:03Z) - Developing A Multi-Agent and Self-Adaptive Framework with Deep Reinforcement Learning for Dynamic Portfolio Risk Management [1.2016264781280588]
ポートフォリオ全体のリターンと潜在的なリスクの間のトレードオフのバランスをとるために,マルチエージェント強化学習(RL)アプローチを提案する。
得られた実験結果から,提案したMASAフレームワークの有効性が明らかとなった。
論文 参考訳(メタデータ) (2024-02-01T11:31:26Z) - Can Perturbations Help Reduce Investment Risks? Risk-Aware Stock
Recommendation via Split Variational Adversarial Training [44.7991257631318]
本稿では,リスクを意識したストックレコメンデーションのための新しいSVAT法を提案する。
株式レコメンデーションモデルのボラティリティを下げることで、SVATは投資リスクを効果的に低減し、リスク調整利益の点で最先端のベースラインを30%以上上回ります。
論文 参考訳(メタデータ) (2023-04-20T12:10:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。