論文の概要: Robo-Advising: Enhancing Investment with Inverse Optimization and Deep
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2105.09264v1
- Date: Wed, 19 May 2021 17:20:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-20 13:37:03.313920
- Title: Robo-Advising: Enhancing Investment with Inverse Optimization and Deep
Reinforcement Learning
- Title(参考訳): Robo-Advising: 逆最適化と深層強化学習による投資促進
- Authors: Haoran Wang, Shi Yu
- Abstract要約: 2つのMLエージェントからなるフルサイクルデータ駆動型投資ロボマネジメントフレームワークを提案する。
提案された投資パイプラインは、2016年4月1日から2021年2月1日までの実際の市場データに適用され、S&P 500ベンチマークポートフォリオを一貫して上回っている。
- 参考スコア(独自算出の注目度): 13.23731449431572
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine Learning (ML) has been embraced as a powerful tool by the financial
industry, with notable applications spreading in various domains including
investment management. In this work, we propose a full-cycle data-driven
investment robo-advising framework, consisting of two ML agents. The first
agent, an inverse portfolio optimization agent, infers an investor's risk
preference and expected return directly from historical allocation data using
online inverse optimization. The second agent, a deep reinforcement learning
(RL) agent, aggregates the inferred sequence of expected returns to formulate a
new multi-period mean-variance portfolio optimization problem that can be
solved using deep RL approaches. The proposed investment pipeline is applied on
real market data from April 1, 2016 to February 1, 2021 and has shown to
consistently outperform the S&P 500 benchmark portfolio that represents the
aggregate market optimal allocation. The outperformance may be attributed to
the the multi-period planning (versus single-period planning) and the
data-driven RL approach (versus classical estimation approach).
- Abstract(参考訳): 機械学習(ML)は金融業界において強力なツールとして受け入れられており、投資管理を含む様々な分野に顕著な応用が広がっている。
本研究では,2つのmlエージェントからなるフルサイクルデータ駆動型投資ロボアドバイザリングフレームワークを提案する。
逆ポートフォリオ最適化エージェントである第1エージェントは、オンライン逆最適化を用いて、履歴アロケーションデータから直接、投資家のリスク選択と期待リターンを推測する。
第2のエージェントである深部強化学習(RL)エージェントは、予測されるリターンの推論シーケンスを集約し、深部RLアプローチを用いて解決可能な、新しい多周期平均分散ポートフォリオ最適化問題を定式化する。
提案された投資パイプラインは、2016年4月1日から2021年2月1日までの実際の市場データに適用され、市場最適配分を表すS&P500ベンチマークポートフォリオを一貫して上回っている。
アウトパフォーマンスは、多周期計画(単周期計画)とデータ駆動rlアプローチ(古典的推定アプローチ)に起因している可能性がある。
関連論文リスト
- Optimizing Portfolio with Two-Sided Transactions and Lending: A Reinforcement Learning Framework [0.0]
本研究では,リスクの高い環境に適した強化学習に基づくポートフォリオ管理モデルを提案する。
マルチヘッドアテンションを持つ畳み込みニューラルネットワークを用いたソフトアクタ・クリティカル(SAC)エージェントを用いてモデルを実装した。
市場のボラティリティ(変動性)が変化する2つの16カ月間にわたってテストされたこのモデルは、ベンチマークを著しく上回った。
論文 参考訳(メタデータ) (2024-08-09T23:36:58Z) - Deep Reinforcement Learning and Mean-Variance Strategies for Responsible Portfolio Optimization [49.396692286192206]
本研究では,ESG状態と目的を取り入れたポートフォリオ最適化のための深層強化学習について検討する。
以上の結果から,ポートフォリオアロケーションに対する平均分散アプローチに対して,深層強化学習政策が競争力を発揮する可能性が示唆された。
論文 参考訳(メタデータ) (2024-03-25T12:04:03Z) - Developing A Multi-Agent and Self-Adaptive Framework with Deep Reinforcement Learning for Dynamic Portfolio Risk Management [1.2016264781280588]
ポートフォリオ全体のリターンと潜在的なリスクの間のトレードオフのバランスをとるために,マルチエージェント強化学習(RL)アプローチを提案する。
得られた実験結果から,提案したMASAフレームワークの有効性が明らかとなった。
論文 参考訳(メタデータ) (2024-02-01T11:31:26Z) - HireVAE: An Online and Adaptive Factor Model Based on Hierarchical and
Regime-Switch VAE [113.47287249524008]
オンラインで適応的な環境で株価予測を行うファクターモデルを構築することは、依然としてオープンな疑問である。
本稿では,オンラインおよび適応型要素モデルであるHireVAEを,市場状況とストックワイド潜在要因の関係を埋め込んだ階層型潜在空間として提案する。
4つの一般的な実市場ベンチマークにおいて、提案されたHireVAEは、以前の手法よりもアクティブリターンの点で優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-06-05T12:58:13Z) - Dynamic Resource Allocation for Metaverse Applications with Deep
Reinforcement Learning [64.75603723249837]
そこで本研究では,Metaverse アプリケーション用の異なるタイプのリソースを動的に管理・割り当てする新しいフレームワークを提案する。
まず,アプリケーション間で共通関数を共有できるMetaInstancesという,アプリケーションをグループに分割する効果的なソリューションを提案する。
そこで我々は,要求到着プロセスとアプリケーション離脱プロセスのリアルタイム,動的,不確実な特性を捉えるために,セミマルコフ決定プロセスに基づくフレームワークを開発する。
論文 参考訳(メタデータ) (2023-02-27T00:30:01Z) - A Comparative Study of Hierarchical Risk Parity Portfolio and Eigen
Portfolio on the NIFTY 50 Stocks [1.5773159234875098]
本稿では,インド株式市場の7分野における階層的リスクパリティアルゴリズムと固有ポートフォリオという2つのアプローチを用いたポートフォリオ最適化の体系的アプローチを提案する。
ポートフォリオのバックテストの結果は、HRPポートフォリオのパフォーマンスが、調査されたセクターの大部分のトレーニングデータとテストデータの両方において、そのパフォーマンスよりも優れていることを示している。
論文 参考訳(メタデータ) (2022-10-03T14:51:24Z) - Portfolio Optimization on NIFTY Thematic Sector Stocks Using an LSTM
Model [0.0]
本論文では,インドのNSEの5つのテーマセクターに対して,最適リスクと固有ポートフォリオを設計するためのアルゴリズム的アプローチを提案する。
株価は2016年1月1日から2020年12月31日までウェブから抽出される。
LSTMモデルは将来の株価を予測するために設計されている。
ポートフォリオが結成されて7ヶ月後の2021年8月3日、ポートフォリオの実際のリターンはLSTM予測リターンと比較される。
論文 参考訳(メタデータ) (2022-02-06T07:41:20Z) - FinRL-Meta: A Universe of Near-Real Market Environments for Data-Driven
Deep Reinforcement Learning in Quantitative Finance [58.77314662664463]
FinRL-Metaは、データ駆動型金融強化学習のための市場環境の宇宙を構築している。
まず、FinRL-MetaはDRLベースの戦略の設計パイプラインから財務データ処理を分離する。
第2に、FinRL-Metaは様々な取引タスクに数百の市場環境を提供している。
論文 参考訳(メタデータ) (2021-12-13T16:03:37Z) - Deep Stock Predictions [58.720142291102135]
本稿では,Long Short Term Memory (LSTM) ニューラルネットワークを用いてポートフォリオ最適化を行うトレーディング戦略の設計について考察する。
次に、LSTMのトレーニングに使用する損失関数をカスタマイズし、利益を上げる。
カスタマイズされた損失関数を持つLSTMモデルは、ARIMAのような回帰ベースライン上でのトレーニングボットの性能を向上させる。
論文 参考訳(メタデータ) (2020-06-08T23:37:47Z) - Deep Learning for Portfolio Optimization [5.833272638548154]
個々の資産を選択する代わりに、ポートフォリオを形成するために市場指標のETF(Exchange-Traded Funds)を交換します。
我々は,本手法を広範囲のアルゴリズムと比較し,本モデルがテスト期間中に最高の性能を得ることを示す。
論文 参考訳(メタデータ) (2020-05-27T21:28:43Z) - Reinforcement-Learning based Portfolio Management with Augmented Asset
Movement Prediction States [71.54651874063865]
ポートフォリオマネジメント(PM)は、最大利益や最小リスクといった投資目標を達成することを目的としている。
本稿では,PMのための新しいステート拡張RLフレームワークであるSARLを提案する。
当社の枠組みは, 金融PMにおける2つのユニークな課題に対処することを目的としている。(1) データの異種データ -- 資産毎の収集情報は通常, 多様性, ノイズ, 不均衡(ニュース記事など), (2) 環境の不確実性 -- 金融市場は多様で非定常である。
論文 参考訳(メタデータ) (2020-02-09T08:10:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。