論文の概要: Factor-MCLS: Multi-agent learning system with reward factor matrix and multi-critic framework for dynamic portfolio optimization
- arxiv url: http://arxiv.org/abs/2504.11874v1
- Date: Wed, 16 Apr 2025 08:51:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-17 14:39:00.083437
- Title: Factor-MCLS: Multi-agent learning system with reward factor matrix and multi-critic framework for dynamic portfolio optimization
- Title(参考訳): Factor-MCLS:動的ポートフォリオ最適化のための報酬係数行列と多批判フレームワークを用いたマルチエージェント学習システム
- Authors: Ruoyu Sun, Angelos Stefanidis, Zhengyong Jiang, Jionglong Su,
- Abstract要約: 各ポートフォリオ資産に対するリスク回避のレベルが異なることから、投資家がトレーニングに介入することは困難である。
既存の強化学習(DRL)エージェントは、ポートフォリオのリターンとリスクに対する要因の理解を深めることができない。
本稿では,各ポートフォリオの資産を解明するための報酬係数行列を提案する。
このように、DRLに基づく学習システムは、ポートフォリオのリターンとリスクに影響を与える要因を効果的に学習することができる。
- 参考スコア(独自算出の注目度): 4.36011451106729
- License:
- Abstract: Typical deep reinforcement learning (DRL) agents for dynamic portfolio optimization learn the factors influencing portfolio return and risk by analyzing the output values of the reward function while adjusting portfolio weights within the training environment. However, it faces a major limitation where it is difficult for investors to intervene in the training based on different levels of risk aversion towards each portfolio asset. This difficulty arises from another limitation: existing DRL agents may not develop a thorough understanding of the factors responsible for the portfolio return and risk by only learning from the output of the reward function. As a result, the strategy for determining the target portfolio weights is entirely dependent on the DRL agents themselves. To address these limitations, we propose a reward factor matrix for elucidating the return and risk of each asset in the portfolio. Additionally, we propose a novel learning system named Factor-MCLS using a multi-critic framework that facilitates learning of the reward factor matrix. In this way, our DRL-based learning system can effectively learn the factors influencing portfolio return and risk. Moreover, based on the critic networks within the multi-critic framework, we develop a risk constraint term in the training objective function of the policy function. This risk constraint term allows investors to intervene in the training of the DRL agent according to their individual levels of risk aversion towards the portfolio assets.
- Abstract(参考訳): 動的ポートフォリオ最適化のための典型的な深層強化学習(DRL)エージェントは、トレーニング環境内のポートフォリオ重量を調整しながら報酬関数の出力値を分析し、ポートフォリオのリターンとリスクに影響を与える要因を学習する。
しかし、各ポートフォリオ資産に対するリスク回避のレベルが異なることから、投資家がトレーニングに介入することが困難な大きな制限に直面している。
既存のDRLエージェントは、報酬関数の出力からのみ学習することによって、ポートフォリオのリターンとリスクに責任を持つ要因の理解を深めることができない。
結果として、目標ポートフォリオ重量を決定する戦略はDRLエージェント自体に完全に依存する。
これらの制約に対処するため、ポートフォリオ内の各資産のリターンとリスクを解明するための報酬係数行列を提案する。
さらに,報奨因子行列の学習を容易にする多批判フレームワークを用いたFacter-MCLSという新しい学習システムを提案する。
このように、DRLに基づく学習システムは、ポートフォリオのリターンとリスクに影響を与える要因を効果的に学習することができる。
さらに,多批判フレームワークにおける批判ネットワークに基づいて,政策関数の訓練対象関数におけるリスク制約項を開発する。
このリスク制約項により、投資家はポートフォリオ資産に対するリスク回避のレベルに応じてDRLエージェントのトレーニングに介入することができる。
関連論文リスト
- STORM: A Spatio-Temporal Factor Model Based on Dual Vector Quantized Variational Autoencoders for Financial Trading [55.02735046724146]
金融取引では、ファクターモデルが資産の価格設定や過大なリターンの獲得に広く利用されている。
双対ベクトル量子化変分オートエンコーダを用いた時空間ファクトラーモデルSTORMを提案する。
ストームは時間的および空間的な視点からストックの特徴を抽出し、これらの特徴を微細で意味的なレベルで融合し整列させ、その要素を多次元の埋め込みとして表現する。
論文 参考訳(メタデータ) (2024-12-12T17:15:49Z) - MILLION: A General Multi-Objective Framework with Controllable Risk for Portfolio Management [16.797109778036862]
pOrtfolio maMILLION に対して controLLableIsk を用いた汎用 Multi-objectIve フレームワークを提案する。
リスクコントロールフェーズでは,ポートフォリオ適応とポートフォリオ改善という2つの手法を提案する。
その結果,提案手法の有効性と有効性を示した。
論文 参考訳(メタデータ) (2024-12-04T05:19:34Z) - VinePPO: Unlocking RL Potential For LLM Reasoning Through Refined Credit Assignment [66.80143024475635]
VinePPOは不偏のモンテカルロ推定を計算するための簡単な手法である。
我々は、VinePPOが、MATHおよびGSM8Kデータセット間でPPOや他のRLフリーベースラインを一貫して上回ることを示す。
論文 参考訳(メタデータ) (2024-10-02T15:49:30Z) - Deep Reinforcement Learning and Mean-Variance Strategies for Responsible Portfolio Optimization [49.396692286192206]
本研究では,ESG状態と目的を取り入れたポートフォリオ最適化のための深層強化学習について検討する。
以上の結果から,ポートフォリオアロケーションに対する平均分散アプローチに対して,深層強化学習政策が競争力を発揮する可能性が示唆された。
論文 参考訳(メタデータ) (2024-03-25T12:04:03Z) - Combining Transformer based Deep Reinforcement Learning with
Black-Litterman Model for Portfolio Optimization [0.0]
モデルフリーのアルゴリズムとして、深層強化学習(DRL)エージェントは、教師なしの方法で環境と対話することで学習し、決定する。
DRLエージェントとBlack-Litterman (BL)モデルを組み合わせたハイブリッドポートフォリオ最適化モデルを提案する。
我々のDRLエージェントは、様々な比較ポートフォリオ選択戦略と代替DRLフレームワークを、累積リターンで少なくとも42%上回っている。
論文 参考訳(メタデータ) (2024-02-23T16:01:37Z) - RiskQ: Risk-sensitive Multi-Agent Reinforcement Learning Value Factorization [49.26510528455664]
本稿では,リスクに敏感な個人・グローバル・マックス(RIGM)の原則を,個人・グローバル・マックス(IGM)と分散IGM(DIGM)の原則の一般化として紹介する。
RiskQは広範な実験によって有望な性能が得られることを示す。
論文 参考訳(メタデータ) (2023-11-03T07:18:36Z) - Factor Investing with a Deep Multi-Factor Model [123.52358449455231]
我々は、業界中立化と市場中立化モジュールを明確な財務見識をもって取り入れた、新しい深層多要素モデルを開発する。
実世界の株式市場データによるテストは、我々の深層多要素モデルの有効性を示している。
論文 参考訳(メタデータ) (2022-10-22T14:47:11Z) - Efficient Risk-Averse Reinforcement Learning [79.61412643761034]
リスク逆強化学習(RL)では、リターンのリスク測定を最適化することが目標である。
特定の条件下では、これは必然的に局所最適障壁につながることを証明し、それを回避するためのソフトリスク機構を提案する。
迷路ナビゲーション,自律運転,資源配分ベンチマークにおいて,リスク回避の改善を示す。
論文 参考訳(メタデータ) (2022-05-10T19:40:52Z) - Risk budget portfolios with convex Non-negative Matrix Factorization [0.0]
凸非負行列因子化(NMF)を用いたリスクファクタの予算化に基づくポートフォリオ割当手法を提案する。
我々は、暗号通貨と伝統的資産の2つの長期的グローバルポートフォリオを対象とするボラティリティの文脈で、我々の手法を評価する。
論文 参考訳(メタデータ) (2022-04-06T12:02:15Z) - Deep Risk Model: A Deep Learning Solution for Mining Latent Risk Factors
to Improve Covariance Matrix Estimation [8.617532047238461]
ニューラルネットワークによるリスクファクタを効果的に"設計"するためのディープラーニングソリューションを提案する。
提案手法は,R2$で測定した説明分散を1.9%以上高めることができ,また,グローバルな最小分散ポートフォリオのリスクを低減することができる。
論文 参考訳(メタデータ) (2021-07-12T05:30:50Z) - Learning Risk Preferences from Investment Portfolios Using Inverse
Optimization [25.19470942583387]
本稿では,既存ポートフォリオからのリスク嗜好を逆最適化を用いて測定する手法を提案する。
我々は、20年間の資産価格と10年間の相互ファンドポートフォリオ保有からなる実市場データについて、本手法を実証する。
論文 参考訳(メタデータ) (2020-10-04T21:29:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。