論文の概要: MARS: A Meta-Adaptive Reinforcement Learning Framework for Risk-Aware Multi-Agent Portfolio Management
- arxiv url: http://arxiv.org/abs/2508.01173v1
- Date: Sat, 02 Aug 2025 03:23:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:21.742085
- Title: MARS: A Meta-Adaptive Reinforcement Learning Framework for Risk-Aware Multi-Agent Portfolio Management
- Title(参考訳): MARS:リスク対応マルチエージェントポートフォリオ管理のためのメタ適応強化学習フレームワーク
- Authors: Jiayi Chen, Jing Li, Guiling Wang,
- Abstract要約: 強化 学習は、自動ポートフォリオ管理において大きな可能性を秘めている。
リスク認識システム(MARS)のためのメタ制御エージェントを提案する。
MARSは異種エージェントアンサンブルを使用しており、各エージェントは固有の固有のリスクプロファイルを持っている。
- 参考スコア(独自算出の注目度): 7.740995234462868
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reinforcement Learning (RL) has shown significant promise in automated portfolio management; however, effectively balancing risk and return remains a central challenge, as many models fail to adapt to dynamically changing market conditions. In this paper, we propose Meta-controlled Agents for a Risk-aware System (MARS), a novel RL framework designed to explicitly address this limitation through a multi-agent, risk-aware approach. Instead of a single monolithic model, MARS employs a Heterogeneous Agent Ensemble where each agent possesses a unique, intrinsic risk profile. This profile is enforced by a dedicated Safety-Critic network and a specific risk-tolerance threshold, allowing agents to specialize in behaviors ranging from capital preservation to aggressive growth. To navigate different market regimes, a high-level Meta-Adaptive Controller (MAC) learns to dynamically orchestrate the ensemble. By adjusting its reliance on conservative versus aggressive agents, the MAC effectively lowers portfolio volatility during downturns and seeks higher returns in bull markets, thus minimizing maximum drawdown and enhancing overall stability. This two-tiered structure allows MARS to generate a disciplined and adaptive portfolio that is robust to market fluctuations. The framework achieves a superior balance between risk and return by leveraging behavioral diversity rather than explicit market-feature engineering. Experiments on major international stock indexes, including periods of significant financial crisis, demonstrate the efficacy of our framework on risk-adjusted criteria, significantly reducing maximum drawdown and volatility while maintaining competitive returns.
- Abstract(参考訳): 強化学習(RL)は、自動ポートフォリオ管理において大きな可能性を示していますが、リスクとリターンの効果的なバランスは、多くのモデルが動的に変化する市場条件に適応できないため、依然として中心的な課題です。
本稿では,リスク認識システム(MARS)のためのメタコントロールエージェントを提案する。
単一のモノリシックモデルの代わりに、MARSは異種エージェントアンサンブルを使用しており、各エージェントは固有の固有のリスクプロファイルを持っている。
このプロファイルは、専用のセーフティ・クリティカル・ネットワークと特定のリスク耐性しきい値によって実施され、エージェントは資本保存から積極的な成長までの行動に特化することができる。
異なる市場体制をナビゲートするために、ハイレベルなMeta-Adaptive Controller(MAC)は、アンサンブルを動的にオーケストレーションすることを学ぶ。
MACは保守的なエージェントと攻撃的なエージェントへの依存を調整することで、ダウンターン中のポートフォリオのボラティリティを効果的に低下させ、強気市場におけるより高いリターンを求め、最大縮小を最小化し、全体的な安定性を高める。
この2層構造により、MARSは市場変動に対して堅牢な規律付き適応ポートフォリオを生成することができる。
このフレームワークは、明確な市場機能エンジニアリングよりも行動の多様性を活用することで、リスクとリターンのバランスを向上する。
重要な金融危機の期間を含む主要国際株価指数の実験は、リスク調整基準に対する我々の枠組みの有効性を実証し、競争リターンを維持しつつ、最大の下落とボラティリティを著しく低減する。
関連論文リスト
- Building crypto portfolios with agentic AI [46.348283638884425]
暗号通貨市場の急速な成長は投資家に新たな機会を与えたが、同時に高いボラティリティがもたらされた。
本稿では,暗号アロケーションを自律的に構築し,評価するためのマルチエージェントシステムの実用化について述べる。
論文 参考訳(メタデータ) (2025-07-11T18:03:51Z) - A Survey on Autonomy-Induced Security Risks in Large Model-Based Agents [45.53643260046778]
大規模言語モデル(LLM)の最近の進歩は、自律型AIエージェントの台頭を触媒している。
これらの大きなモデルエージェントは、静的推論システムからインタラクティブなメモリ拡張エンティティへのパラダイムシフトを示す。
論文 参考訳(メタデータ) (2025-06-30T13:34:34Z) - Dynamic Reinsurance Treaty Bidding via Multi-Agent Reinforcement Learning [0.0]
本稿では,再保証条約入札のための新しいマルチエージェント強化学習(MARL)フレームワークを開発する。
MARLエージェントは、最大15%高い引受利益、20%低い尾リスク、25%以上のシャープ比の改善を達成する。
これらの結果は、MARLがより透明性があり、適応的で、リスクに敏感なリシュアランス市場への道を開くことを示唆している。
論文 参考訳(メタデータ) (2025-06-16T05:43:22Z) - Bridging Econometrics and AI: VaR Estimation via Reinforcement Learning and GARCH Models [0.0]
本稿では,GARCHのボラティリティモデルと深い強化学習を組み合わせた,VaR(Value-at-Risk)推定のためのハイブリッドフレームワークを提案する。
本手法では,Double Deep Q-Network (DDQN) モデルを用いて市場予測を行い,タスクを不均衡な分類問題として扱う。
危機と高いボラティリティの期間をカバーする毎日のEurostoxx 50データに関する実証的な検証は、VaR推定の精度を大幅に改善したことを示している。
論文 参考訳(メタデータ) (2025-04-23T11:54:22Z) - MTS: A Deep Reinforcement Learning Portfolio Management Framework with Time-Awareness and Short-Selling [0.8642326601683299]
本稿では,時間認識と短時間販売を伴うDeep Reinforcement Learning Portfolio Management Frameworkを紹介する。
動的リスク管理の限界、時間的市場の利用、短期販売のような複雑な取引戦略の導入に対処する。
シャープ、オメガ、ソルティーノ比の累積リターンを継続的に達成し、リスクとリターンのバランスをとる効果を裏付ける。
論文 参考訳(メタデータ) (2025-03-06T06:41:17Z) - Safe Multi-Agent Reinforcement Learning with Convergence to Generalized Nash Equilibrium [6.169364905804677]
マルチエージェント強化学習(MARL)は協調作業において顕著な成功を収めた。
MARLエージェントを現実世界のアプリケーションにデプロイすることは、重大な安全性上の課題を示す。
我々は,エージェントが訪れるすべての状態において,安全要件を強制する,$textitstate-wise$制約付き安全なMARLの新たな理論的枠組みを提案する。
複雑な高次元システムにおける実践的展開のために、$textitMulti-Agent Dual Actor-Critic$ (MADAC)を提案する。
論文 参考訳(メタデータ) (2024-11-22T16:08:42Z) - Developing A Multi-Agent and Self-Adaptive Framework with Deep Reinforcement Learning for Dynamic Portfolio Risk Management [1.2016264781280588]
ポートフォリオ全体のリターンと潜在的なリスクの間のトレードオフのバランスをとるために,マルチエージェント強化学習(RL)アプローチを提案する。
得られた実験結果から,提案したMASAフレームワークの有効性が明らかとなった。
論文 参考訳(メタデータ) (2024-02-01T11:31:26Z) - RiskQ: Risk-sensitive Multi-Agent Reinforcement Learning Value Factorization [49.26510528455664]
本稿では,リスクに敏感な個人・グローバル・マックス(RIGM)の原則を,個人・グローバル・マックス(IGM)と分散IGM(DIGM)の原則の一般化として紹介する。
RiskQは広範な実験によって有望な性能が得られることを示す。
論文 参考訳(メタデータ) (2023-11-03T07:18:36Z) - Efficient Risk-Averse Reinforcement Learning [79.61412643761034]
リスク逆強化学習(RL)では、リターンのリスク測定を最適化することが目標である。
特定の条件下では、これは必然的に局所最適障壁につながることを証明し、それを回避するためのソフトリスク機構を提案する。
迷路ナビゲーション,自律運転,資源配分ベンチマークにおいて,リスク回避の改善を示す。
論文 参考訳(メタデータ) (2022-05-10T19:40:52Z) - ERMAS: Becoming Robust to Reward Function Sim-to-Real Gaps in
Multi-Agent Simulations [110.72725220033983]
Epsilon-Robust Multi-Agent Simulation (ERMAS)は、このようなマルチエージェントのsim-to-realギャップに対して堅牢なAIポリシーを学ぶためのフレームワークである。
ERMASは、エージェントリスク回避の変化に対して堅牢な税政策を学び、複雑な時間シミュレーションで最大15%社会福祉を改善する。
特に、ERMASは、エージェントリスク回避の変化に対して堅牢な税制政策を学び、複雑な時間シミュレーションにおいて、社会福祉を最大15%改善する。
論文 参考訳(メタデータ) (2021-06-10T04:32:20Z) - Mean-Variance Policy Iteration for Risk-Averse Reinforcement Learning [75.17074235764757]
割引無限地平線MDPにおけるリスク・アバース制御の枠組みを提案する。
MVPIは、政策評価方法やリスクニュートラル制御手法を棚から外すためのリスク・アバース制御に投入できる点において、非常に柔軟性がある。
この柔軟性は、リスク中立制御とリスク逆制御のギャップを減らし、新しい拡張MDPの開発によって達成される。
論文 参考訳(メタデータ) (2020-04-22T22:23:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。