論文の概要: Optimizing Portfolio Management and Risk Assessment in Digital Assets
Using Deep Learning for Predictive Analysis
- arxiv url: http://arxiv.org/abs/2402.15994v1
- Date: Sun, 25 Feb 2024 05:23:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-27 15:50:48.865137
- Title: Optimizing Portfolio Management and Risk Assessment in Digital Assets
Using Deep Learning for Predictive Analysis
- Title(参考訳): 予測分析のためのディープラーニングを用いたデジタル資産のポートフォリオ管理とリスクアセスメントの最適化
- Authors: Qishuo Cheng, Le Yang, Jiajian Zheng, Miao Tian, Duan Xin
- Abstract要約: 本稿では,DQNアルゴリズムを新規かつ簡単な方法で資産管理ポートフォリオに導入する。
この性能はベンチマークをはるかに上回り、ポートフォリオ管理におけるDRLアルゴリズムの有効性を十分に証明している。
異なる資産は別々に環境として訓練されるので、異なる資産間でQ値が漂う現象があるかもしれない。
- 参考スコア(独自算出の注目度): 5.015409508372732
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Portfolio management issues have been extensively studied in the field of
artificial intelligence in recent years, but existing deep learning-based
quantitative trading methods have some areas where they could be improved.
First of all, the prediction mode of stocks is singular; often, only one
trading expert is trained by a model, and the trading decision is solely based
on the prediction results of the model. Secondly, the data source used by the
model is relatively simple, and only considers the data of the stock itself,
ignoring the impact of the whole market risk on the stock. In this paper, the
DQN algorithm is introduced into asset management portfolios in a novel and
straightforward way, and the performance greatly exceeds the benchmark, which
fully proves the effectiveness of the DRL algorithm in portfolio management.
This also inspires us to consider the complexity of financial problems, and the
use of algorithms should be fully combined with the problems to adapt. Finally,
in this paper, the strategy is implemented by selecting the assets and actions
with the largest Q value. Since different assets are trained separately as
environments, there may be a phenomenon of Q value drift among different assets
(different assets have different Q value distribution areas), which may easily
lead to incorrect asset selection. Consider adding constraints so that the Q
values of different assets share a Q value distribution to improve results.
- Abstract(参考訳): 近年、ポートフォリオ管理の問題は人工知能の分野で広範囲に研究されているが、既存のディープラーニングベースの定量的取引手法には改善の余地がある。
まず、株式の予測モードは特異であり、しばしば1人のトレーディング専門家だけがモデルによって訓練され、トレーディング決定はモデルの予測結果のみに基づいて行われる。
第二に、このモデルが使用するデータソースは比較的単純であり、株式自体のデータのみを考慮し、市場全体のリスクが株式に与える影響を無視する。
本稿では,DQNアルゴリズムを新規かつ簡単な方法で資産管理ポートフォリオに導入し,ポートフォリオ管理におけるDRLアルゴリズムの有効性を十分に証明するベンチマークを大幅に上回る性能を示す。
これはまた、金融問題の複雑さを考えるきっかけとなり、アルゴリズムの使用は適応すべき問題と完全に組み合わせるべきである。
最後に、この戦略は、資産とアクションを最大Q値で選択することで実現される。
異なる資産は別々に環境として訓練されるため、異なる資産間でQ値が漂う現象(異なる資産は異なるQ値分布領域を持つ)があり、誤った資産選択につながる可能性がある。
異なる資産のQ値がQ値の分布を共有して結果を改善するために制約を加えることを考える。
関連論文リスト
- When AI Meets Finance (StockAgent): Large Language Model-based Stock Trading in Simulated Real-world Environments [55.19252983108372]
LLMによって駆動される、StockAgentと呼ばれるマルチエージェントAIシステムを開発した。
StockAgentを使えば、ユーザーはさまざまな外部要因が投資家取引に与える影響を評価することができる。
AIエージェントに基づく既存のトレーディングシミュレーションシステムに存在するテストセットのリーク問題を回避する。
論文 参考訳(メタデータ) (2024-07-15T06:49:30Z) - Deep Hedging with Market Impact [0.20482269513546458]
本稿では,Deep Reinforcement Learning(DRL)に基づく新しい市場インパクト動的ヘッジモデルを提案する。
DRLモデルから得られた最適ポリシーは、いくつかのオプションヘッジシミュレーションを用いて分析され、デルタヘッジのような一般的な手順と比較される。
論文 参考訳(メタデータ) (2024-02-20T19:08:24Z) - Cryptocurrency Portfolio Optimization by Neural Networks [81.20955733184398]
本稿では,これらの投資商品を活用するために,ニューラルネットワークに基づく効果的なアルゴリズムを提案する。
シャープ比を最大化するために、各アセットの割り当て重量を時間間隔で出力するディープニューラルネットワークを訓練する。
ネットワークの特定の資産に対するバイアスを規制する新たな損失項を提案し,最小分散戦略に近い割り当て戦略をネットワークに学習させる。
論文 参考訳(メタデータ) (2023-10-02T12:33:28Z) - Diffusion Variational Autoencoder for Tackling Stochasticity in
Multi-Step Regression Stock Price Prediction [54.21695754082441]
長期的地平線上での多段階の株価予測は、ボラティリティの予測に不可欠である。
多段階の株価予測に対する現在の解決策は、主に単一段階の分類に基づく予測のために設計されている。
深層階層型変分オートコーダ(VAE)と拡散確率的手法を組み合わせてセック2seqの株価予測を行う。
本モデルでは, 予測精度と分散性の観点から, 最先端の解よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-18T16:21:15Z) - HireVAE: An Online and Adaptive Factor Model Based on Hierarchical and
Regime-Switch VAE [113.47287249524008]
オンラインで適応的な環境で株価予測を行うファクターモデルを構築することは、依然としてオープンな疑問である。
本稿では,オンラインおよび適応型要素モデルであるHireVAEを,市場状況とストックワイド潜在要因の関係を埋め込んだ階層型潜在空間として提案する。
4つの一般的な実市場ベンチマークにおいて、提案されたHireVAEは、以前の手法よりもアクティブリターンの点で優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-06-05T12:58:13Z) - Factor Investing with a Deep Multi-Factor Model [123.52358449455231]
我々は、業界中立化と市場中立化モジュールを明確な財務見識をもって取り入れた、新しい深層多要素モデルを開発する。
実世界の株式市場データによるテストは、我々の深層多要素モデルの有効性を示している。
論文 参考訳(メタデータ) (2022-10-22T14:47:11Z) - Applications of Reinforcement Learning in Finance -- Trading with a
Double Deep Q-Network [0.0]
本稿では,単一資産,すなわちE-mini S&P 500連続先物契約を取引するためのDouble Deep Q-Networkアルゴリズムを提案する。
複数の拡張を備えた環境の基盤として、実証済みのセットアップを使用します。
当社のトレーディングエージェントの特徴は、常に商品などの追加資産を含むように拡張され、結果として4つのモデルが生まれています。
論文 参考訳(メタデータ) (2022-06-28T19:46:16Z) - Fuzzy Expert System for Stock Portfolio Selection: An Application to
Bombay Stock Exchange [0.0]
ボンベイ証券取引所(BSE)の株式評価と格付けのためにファジィエキスパートシステムモデルが提案されている。
このモデルの性能は、最近の株のパフォーマンスと比較すると、短期的な投資期間で十分であることが判明した。
論文 参考訳(メタデータ) (2022-04-28T10:01:15Z) - High-Dimensional Stock Portfolio Trading with Deep Reinforcement
Learning [0.0]
このアルゴリズムは任意のサイズの断面データセットから高次元のポートフォリオを交換することができる。
我々は、各環境の資産を1つ集めて環境を順次設定し、その結果の資産の返却と現金の保留に報いるとともに、資産の集合の返却平均に報いる。
論文 参考訳(メタデータ) (2021-12-09T08:30:45Z) - Learning Financial Asset-Specific Trading Rules via Deep Reinforcement
Learning [0.6445605125467573]
さまざまな技術分析技術に基づいて様々な資産取引ルールを実験的に提案する。
深層強化学習法(DRL)は、各資産の新たな取引規則を学習するために用いられる。
この研究で提案されたモデルは、単一資産固有のトレーディングルールの学習において、他の最先端モデルよりも優れていた。
論文 参考訳(メタデータ) (2020-10-27T10:59:53Z) - Reinforcement-Learning based Portfolio Management with Augmented Asset
Movement Prediction States [71.54651874063865]
ポートフォリオマネジメント(PM)は、最大利益や最小リスクといった投資目標を達成することを目的としている。
本稿では,PMのための新しいステート拡張RLフレームワークであるSARLを提案する。
当社の枠組みは, 金融PMにおける2つのユニークな課題に対処することを目的としている。(1) データの異種データ -- 資産毎の収集情報は通常, 多様性, ノイズ, 不均衡(ニュース記事など), (2) 環境の不確実性 -- 金融市場は多様で非定常である。
論文 参考訳(メタデータ) (2020-02-09T08:10:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。