論文の概要: Portfolio Management using Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2405.01604v1
- Date: Wed, 1 May 2024 22:28:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-06 15:04:28.172923
- Title: Portfolio Management using Deep Reinforcement Learning
- Title(参考訳): 深層強化学習を用いたポートフォリオ管理
- Authors: Ashish Anil Pawar, Vishnureddy Prashant Muskawar, Ritesh Tiku,
- Abstract要約: 我々は、資産への重みの配分を補助する強化ポートフォリオマネジャーを提案する。
環境はマネージャに、資産を長く、さらには短くする自由を与えます。
マネジャーは、取引料金なしで、仮定された流動市場において金融取引を行う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Algorithmic trading or Financial robots have been conquering the stock markets with their ability to fathom complex statistical trading strategies. But with the recent development of deep learning technologies, these strategies are becoming impotent. The DQN and A2C models have previously outperformed eminent humans in game-playing and robotics. In our work, we propose a reinforced portfolio manager offering assistance in the allocation of weights to assets. The environment proffers the manager the freedom to go long and even short on the assets. The weight allocation advisements are restricted to the choice of portfolio assets and tested empirically to knock benchmark indices. The manager performs financial transactions in a postulated liquid market without any transaction charges. This work provides the conclusion that the proposed portfolio manager with actions centered on weight allocations can surpass the risk-adjusted returns of conventional portfolio managers.
- Abstract(参考訳): アルゴリズムトレーディングまたは金融ロボットは複雑な統計トレーディング戦略を太くする能力を持って株式市場を征服してきた。
しかし、近年のディープラーニング技術の発展により、これらの戦略は非力化しつつある。
DQNとA2Cのモデルはこれまで、ゲームプレイやロボット工学において、卓越した人間よりも優れていた。
本研究では,資産への重み付けを補助するポートフォリオマネジャーを提案する。
環境はマネージャに、資産を長く、さらには短くする自由を与えます。
重み付けの助言はポートフォリオ資産の選択に限られており、ベンチマーク指標をノックするために経験的にテストされている。
マネジャーは、取引料金なしで仮定された流動市場で金融取引を行う。
この研究は、従来のポートフォリオマネージャのリスク調整されたリターンを超越して、ウェイトアロケーションを中心としたアクションを備えたポートフォリオマネージャを提案する。
関連論文リスト
- Explainable Post hoc Portfolio Management Financial Policy of a Deep Reinforcement Learning agent [44.99833362998488]
我々はポートフォリオ管理のための新しい説明可能な深層強化学習(XDRL)アプローチを開発した。
方法論を実践することにより、エージェントの行動を予測する時間内に解釈し、投資政策の要件に従うかどうかを評価することができる。
論文 参考訳(メタデータ) (2024-07-19T17:40:39Z) - When AI Meets Finance (StockAgent): Large Language Model-based Stock Trading in Simulated Real-world Environments [55.19252983108372]
LLMによって駆動される、StockAgentと呼ばれるマルチエージェントAIシステムを開発した。
StockAgentを使えば、ユーザーはさまざまな外部要因が投資家取引に与える影響を評価することができる。
AIエージェントに基づく既存のトレーディングシミュレーションシステムに存在するテストセットのリーク問題を回避する。
論文 参考訳(メタデータ) (2024-07-15T06:49:30Z) - Beyond Trend Following: Deep Learning for Market Trend Prediction [49.89480853499917]
我々は、将来の市場動向を予測するために人工知能と機械学習技術を使うことを提唱する。
これらの予測は、適切に実行されれば、リターンを増やし、損失を減らすことで資産運用者のパフォーマンスを向上させることができる。
論文 参考訳(メタデータ) (2024-06-10T11:42:30Z) - Optimizing Portfolio Management and Risk Assessment in Digital Assets
Using Deep Learning for Predictive Analysis [5.015409508372732]
本稿では,DQNアルゴリズムを新規かつ簡単な方法で資産管理ポートフォリオに導入する。
この性能はベンチマークをはるかに上回り、ポートフォリオ管理におけるDRLアルゴリズムの有効性を十分に証明している。
異なる資産は別々に環境として訓練されるので、異なる資産間でQ値が漂う現象があるかもしれない。
論文 参考訳(メタデータ) (2024-02-25T05:23:57Z) - Reinforcement Learning with Maskable Stock Representation for Portfolio
Management in Customizable Stock Pools [34.97636568457075]
ポートフォリオ・マネジメント(PM)は、長期的利益を追求するために、資本を異なる株式に最適な定期的な再配置を探求する基本的な金融取引課題である。
既存のReinforcement Learning (RL) 法では,ストックプールを少し変更してもRLエージェントを再訓練する必要があるため,高い計算コストと不安定な性能が得られる。
我々は,グローバルストックプールにおけるワンショットトレーニングを通じて,PMをCSPで扱うためのEarnMoreを提案する。
論文 参考訳(メタデータ) (2023-11-17T09:16:59Z) - Cryptocurrency Portfolio Optimization by Neural Networks [81.20955733184398]
本稿では,これらの投資商品を活用するために,ニューラルネットワークに基づく効果的なアルゴリズムを提案する。
シャープ比を最大化するために、各アセットの割り当て重量を時間間隔で出力するディープニューラルネットワークを訓練する。
ネットワークの特定の資産に対するバイアスを規制する新たな損失項を提案し,最小分散戦略に近い割り当て戦略をネットワークに学習させる。
論文 参考訳(メタデータ) (2023-10-02T12:33:28Z) - Can ChatGPT Forecast Stock Price Movements? Return Predictability and Large Language Models [51.3422222472898]
ニュース見出しを用いて,ChatGPTのような大規模言語モデル(LLM)の株価変動を予測する能力について述べる。
我々は,情報容量制約,過小反応,制限対アビタージュ,LLMを組み込んだ理論モデルを構築した。
論文 参考訳(メタデータ) (2023-04-15T19:22:37Z) - High-Dimensional Stock Portfolio Trading with Deep Reinforcement
Learning [0.0]
このアルゴリズムは任意のサイズの断面データセットから高次元のポートフォリオを交換することができる。
我々は、各環境の資産を1つ集めて環境を順次設定し、その結果の資産の返却と現金の保留に報いるとともに、資産の集合の返却平均に報いる。
論文 参考訳(メタデータ) (2021-12-09T08:30:45Z) - Deep Stock Trading: A Hierarchical Reinforcement Learning Framework for
Portfolio Optimization and Order Execution [26.698261314897195]
ポートフォリオマネジメントのための階層型株取引システム(HRPM)を提案する。
我々は、取引プロセスを取引実行よりもポートフォリオ管理の階層に分解し、対応する政策を訓練する。
HRPMは多くの最先端アプローチに対して大幅な改善を実現している。
論文 参考訳(メタデータ) (2020-12-23T12:09:26Z) - Reinforcement-Learning based Portfolio Management with Augmented Asset
Movement Prediction States [71.54651874063865]
ポートフォリオマネジメント(PM)は、最大利益や最小リスクといった投資目標を達成することを目的としている。
本稿では,PMのための新しいステート拡張RLフレームワークであるSARLを提案する。
当社の枠組みは, 金融PMにおける2つのユニークな課題に対処することを目的としている。(1) データの異種データ -- 資産毎の収集情報は通常, 多様性, ノイズ, 不均衡(ニュース記事など), (2) 環境の不確実性 -- 金融市場は多様で非定常である。
論文 参考訳(メタデータ) (2020-02-09T08:10:03Z) - A General Framework on Enhancing Portfolio Management with Reinforcement
Learning [3.6985496077087743]
ポートフォリオマネジメントは、リスクプロファイルに対する望ましいリターンを満たすため、金融商品全体の資金と資産の継続的な再配置を懸念している。
深層強化学習(RL)はポートフォリオ管理への関心が高まり、RLエージェントは資産配分プロセスを最適化するために財務データに基づいて訓練されている。
本稿では,資産管理のための一般的なRLフレームワークを提案する。
論文 参考訳(メタデータ) (2019-11-26T23:41:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。