論文の概要: A Meta-Method for Portfolio Management Using Machine Learning for
Adaptive Strategy Selection
- arxiv url: http://arxiv.org/abs/2111.05935v1
- Date: Wed, 10 Nov 2021 20:46:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-12 15:27:33.365877
- Title: A Meta-Method for Portfolio Management Using Machine Learning for
Adaptive Strategy Selection
- Title(参考訳): 適応戦略選択のための機械学習を用いたポートフォリオ管理のためのメタ手法
- Authors: Damian Kisiel and Denise Gorse
- Abstract要約: MPMは2つのリスクベースのポートフォリオ割り当て戦略を切り替える方法を学ぶためにXGBoostを使用している。
MPMはシャープ比で測定されるように、優れたサンプル外リスク・リワードプロファイルを有することが示されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work proposes a novel portfolio management technique, the Meta Portfolio
Method (MPM), inspired by the successes of meta approaches in the field of
bioinformatics and elsewhere. The MPM uses XGBoost to learn how to switch
between two risk-based portfolio allocation strategies, the Hierarchical Risk
Parity (HRP) and more classical Na\"ive Risk Parity (NRP). It is demonstrated
that the MPM is able to successfully take advantage of the best characteristics
of each strategy (the NRP's fast growth during market uptrends, and the HRP's
protection against drawdowns during market turmoil). As a result, the MPM is
shown to possess an excellent out-of-sample risk-reward profile, as measured by
the Sharpe ratio, and in addition offers a high degree of interpretability of
its asset allocation decisions.
- Abstract(参考訳): 本研究は,バイオインフォマティクスなどの分野におけるメタアプローチの成功に触発された,新たなポートフォリオ管理手法であるMeta Portfolio Method (MPM)を提案する。
MPMはXGBoostを使用して、2つのリスクベースのポートフォリオ割り当て戦略、階層的リスクパリティ(HRP)とより古典的なナシブリスクパリティ(NRP)の切り替え方法を学ぶ。
MPMは、それぞれの戦略の最も優れた特徴(市場上昇時のNRPの急速な成長、市場混乱時の縮小に対するHRPの保護)をうまく活用できることが示されている。
その結果、MPMはシャープ比で測定されるように、優れたアウト・オブ・サンプルリスク・リワードプロファイルを持ち、さらに資産配分決定の高い解釈性を提供することが示された。
関連論文リスト
- Deep Reinforcement Learning and Mean-Variance Strategies for Responsible Portfolio Optimization [49.396692286192206]
本研究では,ESG状態と目的を取り入れたポートフォリオ最適化のための深層強化学習について検討する。
以上の結果から,ポートフォリオアロケーションに対する平均分散アプローチに対して,深層強化学習政策が競争力を発揮する可能性が示唆された。
論文 参考訳(メタデータ) (2024-03-25T12:04:03Z) - Risk-Sensitive RL with Optimized Certainty Equivalents via Reduction to
Standard RL [48.1726560631463]
我々は,OCE(Optimized Certainty Equivalent)リスクを用いたリスク感性強化学習について検討した。
標準RLへの還元による2つの一般的なメタアルゴリズムを提案する。
我々は,事前アルゴリズムが確実に失敗する間に,最適リスク感応ポリシーを学習することを示す。
論文 参考訳(メタデータ) (2024-03-10T21:45:12Z) - Provable Risk-Sensitive Distributional Reinforcement Learning with
General Function Approximation [54.61816424792866]
本稿では,リスク感性分布強化学習(RS-DisRL)と静的リプシッツリスク対策(LRM),一般関数近似について紹介する。
モデルに基づく関数近似のためのモデルベース戦略であるtextttRS-DisRL-M と、一般値関数近似のためのモデルフリーアプローチである textttRS-DisRL-V の2つの革新的なメタアルゴリズムを設計する。
論文 参考訳(メタデータ) (2024-02-28T08:43:18Z) - Robust Risk-Aware Option Hedging [2.405471533561618]
本稿では、経路依存型金融デリバティブに関連するリスクを軽減するために、ロバストリスク認識強化学習(RL)の可能性を示す。
この手法をバリアオプションのヘッジに適用し、エージェントがリスク回避からリスク探究へと移行するにつれて、最適なヘッジ戦略が歪曲する方法について強調する。
論文 参考訳(メタデータ) (2023-03-27T13:57:13Z) - Optimizing Trading Strategies in Quantitative Markets using Multi-Agent
Reinforcement Learning [11.556829339947031]
本稿では、固定比率ポートフォリオ保険(CPPI)と時間不変ポートフォリオ保護(TIPP)の2つの確立された金融取引戦略の統合について検討する。
本稿では,量的市場における戦略的取引の探索に適した2つの新しいマルチエージェントRL(MARL)手法,CPPI-MADDPGとTIPP-MADDPGを紹介する。
実験の結果,CPPI-MADDPGとTIPP-MADDPGの戦略は従来よりも一貫して優れていた。
論文 参考訳(メタデータ) (2023-03-15T11:47:57Z) - MetaTrader: An Reinforcement Learning Approach Integrating Diverse
Policies for Portfolio Optimization [17.759687104376855]
ポートフォリオ管理のための新しい2段階的アプローチを提案する。
最初の段階では、強化学習フレームワークに模倣学習を組み込む。
第2段階では、メタ政治を学び、市場状況を認識し、従うべき最も適切な学習方針を決定する。
論文 参考訳(メタデータ) (2022-09-01T07:58:06Z) - Balancing Profit, Risk, and Sustainability for Portfolio Management [0.0]
本研究では,リスクを表すシャープ比と持続可能性を表す環境,社会,ガバナンススコア(ESG)を備えた新しいユーティリティ機能を開発する。
連続的な行動空間を許容することで、深いQ-ラーニングアプローチを改善しつつ、MADDPGよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-06-06T08:38:30Z) - Efficient Risk-Averse Reinforcement Learning [79.61412643761034]
リスク逆強化学習(RL)では、リターンのリスク測定を最適化することが目標である。
特定の条件下では、これは必然的に局所最適障壁につながることを証明し、それを回避するためのソフトリスク機構を提案する。
迷路ナビゲーション,自律運転,資源配分ベンチマークにおいて,リスク回避の改善を示す。
論文 参考訳(メタデータ) (2022-05-10T19:40:52Z) - Permutation Invariant Policy Optimization for Mean-Field Multi-Agent
Reinforcement Learning: A Principled Approach [128.62787284435007]
本稿では,平均場近似ポリシ最適化(MF-PPO)アルゴリズムを提案する。
我々は,MF-PPOが収束のサブ線形速度で世界的最適政策を達成することを証明した。
特に、置換不変ニューラルアーキテクチャによって引き起こされる誘導バイアスは、MF-PPOが既存の競合より優れていることを示す。
論文 参考訳(メタデータ) (2021-05-18T04:35:41Z) - Learning Risk Preferences from Investment Portfolios Using Inverse
Optimization [25.19470942583387]
本稿では,既存ポートフォリオからのリスク嗜好を逆最適化を用いて測定する手法を提案する。
我々は、20年間の資産価格と10年間の相互ファンドポートフォリオ保有からなる実市場データについて、本手法を実証する。
論文 参考訳(メタデータ) (2020-10-04T21:29:29Z) - Mixed Strategies for Robust Optimization of Unknown Objectives [93.8672371143881]
そこでは,不確実なパラメータの最悪の実現に対して,未知の目的関数を最適化することを目的として,ロバストな最適化問題を考察する。
我々は,未知の目的をノイズ点評価から逐次学習する,新しいサンプル効率アルゴリズムGP-MROを設計する。
GP-MROは、最悪のケースで期待される目標値を最大化する、堅牢でランダムな混合戦略の発見を目指している。
論文 参考訳(メタデータ) (2020-02-28T09:28:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。