論文の概要: DeepAries: Adaptive Rebalancing Interval Selection for Enhanced Portfolio Selection
- arxiv url: http://arxiv.org/abs/2510.14985v1
- Date: Thu, 11 Sep 2025 04:12:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-07 19:06:32.068425
- Title: DeepAries: Adaptive Rebalancing Interval Selection for Enhanced Portfolio Selection
- Title(参考訳): DeepAries: ポートフォリオ選択の強化を目的とした、適応的な再バランシングインターバル選択
- Authors: Jinkyu Kim, Hyunjung Yi, Mogan Gim, Donghee Choi, Jaewoo Kang,
- Abstract要約: DeepAriesは動的ポートフォリオ管理のための新しい強化学習フレームワークである。
我々のフレームワークはTransformerベースのステートエンコーダを統合し、複雑な長期市場依存性を効果的にキャプチャする。
DeepAriesは、リスク調整されたリターン、トランザクションコスト、ダウンダウンの観点から、従来の固定周波数とフルリバランシング戦略を著しく上回る。
- 参考スコア(独自算出の注目度): 28.47042938208075
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We propose DeepAries , a novel deep reinforcement learning framework for dynamic portfolio management that jointly optimizes the timing and allocation of rebalancing decisions. Unlike prior reinforcement learning methods that employ fixed rebalancing intervals regardless of market conditions, DeepAries adaptively selects optimal rebalancing intervals along with portfolio weights to reduce unnecessary transaction costs and maximize risk-adjusted returns. Our framework integrates a Transformer-based state encoder, which effectively captures complex long-term market dependencies, with Proximal Policy Optimization (PPO) to generate simultaneous discrete (rebalancing intervals) and continuous (asset allocations) actions. Extensive experiments on multiple real-world financial markets demonstrate that DeepAries significantly outperforms traditional fixed-frequency and full-rebalancing strategies in terms of risk-adjusted returns, transaction costs, and drawdowns. Additionally, we provide a live demo of DeepAries at https://deep-aries.github.io/, along with the source code and dataset at https://github.com/dmis-lab/DeepAries, illustrating DeepAries' capability to produce interpretable rebalancing and allocation decisions aligned with shifting market regimes. Overall, DeepAries introduces an innovative paradigm for adaptive and practical portfolio management by integrating both timing and allocation into a unified decision-making process.
- Abstract(参考訳): 我々は、動的ポートフォリオ管理のための新しい深層強化学習フレームワークDeepAriesを提案し、再バランス決定のタイミングと割り当てを共同で最適化する。
市場条件にかかわらず一定の再バランス間隔を採用する従来の強化学習方法とは異なり、DeepAriesはポートフォリオウェイトとともに最適な再バランス間隔を適応的に選択し、不必要な取引コストを削減し、リスク調整されたリターンを最大化する。
我々のフレームワークはTransformerベースのステートエンコーダを統合し、複雑な長期市場の依存関係を効果的にキャプチャし、PPO(Proximal Policy Optimization)を使用して同時離散(再分散間隔)および連続(アロケーション)アクションを生成する。
複数の現実世界の金融市場に関する大規模な実験は、DeepAriesがリスク調整されたリターン、取引コスト、損失といった点で従来の固定周波数およびフルリバランシング戦略を著しく上回っていることを示している。
さらに、DeepAriesのライブデモをhttps://deep-aries.github.io/で提供し、ソースコードとデータセットをhttps://github.com/dmis-lab/DeepAriesで公開しています。
全体として、DeepAriesは、タイミングと割り当てを統合された意思決定プロセスに統合することで、適応的で実用的なポートフォリオ管理のための革新的なパラダイムを導入します。
関連論文リスト
- Cryptocurrency Portfolio Management with Reinforcement Learning: Soft Actor--Critic and Deep Deterministic Policy Gradient Algorithms [0.0]
本稿では,暗号通貨ポートフォリオ管理のための強化学習ベースのフレームワークを提案する。
我々は,Soft Actor-Critic(SAC)アルゴリズムとDeep Deterministic Policy Gradient(DDPG)アルゴリズムを用いる。
論文 参考訳(メタデータ) (2025-11-16T03:43:24Z) - Diffusion-Augmented Reinforcement Learning for Robust Portfolio Optimization under Stress Scenarios [4.042562775811427]
ポートフォリオ管理のためのDARL(Denoising Diffusion-Augmented Reinforcement Learning)とDRL(Deep Reinforcement Learning)を統合した,DARL(Diffusion-Augmented Reinforcement Learning)と呼ばれる革新的なフレームワークを提案する。
DDPMを利用して, 各種応力強度を条件としたマーケットクラッシュシナリオを生成することにより, トレーニングデータの堅牢性を大幅に向上させる。
実証的な評価では、DARLは従来のベースラインよりも優れており、リスク調整されたリターンと、予期せぬ危機に対するレジリエンスを提供する。
論文 参考訳(メタデータ) (2025-10-08T14:56:50Z) - Deep Reinforcement Learning for Online Optimal Execution Strategies [49.1574468325115]
本稿では,動的な金融市場における非マルコフ的最適実行戦略の学習に挑戦する。
我々は,Deep Deterministic Policy Gradient(DDPG)に基づく新しいアクター批判アルゴリズムを提案する。
提案アルゴリズムは最適実行戦略の近似に成功していることを示す。
論文 参考訳(メタデータ) (2024-10-17T12:38:08Z) - Improving Portfolio Optimization Results with Bandit Networks [0.0]
非定常環境向けに設計された新しいBanditアルゴリズムを導入・評価する。
まず,Adaptive Discounted Thompson Smpling (ADTS)アルゴリズムを提案する。
そこで我々は,この手法を,CADTSアルゴリズムを導入してポートフォリオ最適化問題に拡張する。
論文 参考訳(メタデータ) (2024-10-05T16:17:31Z) - Deep Reinforcement Learning and Mean-Variance Strategies for Responsible Portfolio Optimization [49.396692286192206]
本研究では,ESG状態と目的を取り入れたポートフォリオ最適化のための深層強化学習について検討する。
以上の結果から,ポートフォリオアロケーションに対する平均分散アプローチに対して,深層強化学習政策が競争力を発揮する可能性が示唆された。
論文 参考訳(メタデータ) (2024-03-25T12:04:03Z) - Off-Policy Evaluation for Large Action Spaces via Policy Convolution [60.6953713877886]
ポリシ・コンボリューション(Policy Convolution)のファミリーは、アクション内の潜在構造を使用して、ログとターゲットポリシを戦略的に畳み込みます。
合成およびベンチマークデータセットの実験では、PCを使用する場合の平均二乗誤差(MSE)が顕著に改善されている。
論文 参考訳(メタデータ) (2023-10-24T01:00:01Z) - Diffusion Variational Autoencoder for Tackling Stochasticity in
Multi-Step Regression Stock Price Prediction [54.21695754082441]
長期的地平線上での多段階の株価予測は、ボラティリティの予測に不可欠である。
多段階の株価予測に対する現在の解決策は、主に単一段階の分類に基づく予測のために設計されている。
深層階層型変分オートコーダ(VAE)と拡散確率的手法を組み合わせてセック2seqの株価予測を行う。
本モデルでは, 予測精度と分散性の観点から, 最先端の解よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-18T16:21:15Z) - Deep Learning Statistical Arbitrage [0.0]
本稿では,統計的仲裁のための統一的な概念枠組みを提案し,新しいディープラーニングソリューションを開発した。
我々は、条件付き遅延資産価格要素から残余ポートフォリオとして類似資産の仲裁ポートフォリオを構築する。
我々は、これらの残余ポートフォリオの時系列信号を、最も強力な機械学習時系列ソリューションの1つを用いて抽出する。
論文 参考訳(メタデータ) (2021-06-08T00:48:25Z) - Universal Trading for Order Execution with Oracle Policy Distillation [99.57416828489568]
本稿では,不完全な市場状態と注文実行のための最適な行動シーケンスとのギャップを埋める,新たなユニバーサル取引ポリシー最適化フレームワークを提案する。
本研究の枠組みは,完全情報を持つ託宣教師による実践的最適実行に向けて,共通政策の学習を指導する上で有効であることを示す。
論文 参考訳(メタデータ) (2021-01-28T05:52:18Z) - Combining Deep Learning and Optimization for Security-Constrained
Optimal Power Flow [94.24763814458686]
セキュリティに制約のある最適電力フロー(SCOPF)は、電力システムの基本である。
SCOPF問題におけるAPRのモデル化は、複雑な大規模混合整数プログラムをもたらす。
本稿では,ディープラーニングとロバスト最適化を組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T12:38:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。