論文の概要: Deep Reinforcement Learning for Long-Short Portfolio Optimization
- arxiv url: http://arxiv.org/abs/2012.13773v8
- Date: Sat, 15 Mar 2025 17:27:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 21:00:47.245993
- Title: Deep Reinforcement Learning for Long-Short Portfolio Optimization
- Title(参考訳): 長短ポートフォリオ最適化のための深層強化学習
- Authors: Gang Huang, Xiaohua Zhou, Qingyang Song,
- Abstract要約: 本稿では,実際の取引ルールに適合する短売制のポートフォリオ管理フレームワークであるDeep Reinforcement Learning (DRL)を構築した。
鍵となるイノベーションは、長期にわたるトランザクションの動的進化を考慮に入れた、継続的取引における包括的な短期販売メカニズムの開発である。
従来のアプローチと比較して、このモデルはリスク調整されたリターンを向上し、最大損失を低減します。
- 参考スコア(独自算出の注目度): 7.131902599861306
- License:
- Abstract: With the rapid development of artificial intelligence, data-driven methods effectively overcome limitations in traditional portfolio optimization. Conventional models primarily employ long-only mechanisms, excluding highly correlated assets to diversify risk. However, incorporating short-selling enables low-risk arbitrage through hedging correlated assets. This paper constructs a Deep Reinforcement Learning (DRL) portfolio management framework with short-selling mechanisms conforming to actual trading rules, exploring strategies for excess returns in China's A-share market. Key innovations include: (1) Development of a comprehensive short-selling mechanism in continuous trading that accounts for dynamic evolution of transactions across time periods; (2) Design of a long-short optimization framework integrating deep neural networks for processing multi-dimensional financial time series with mean Sharpe ratio reward functions. Empirical results show the DRL model with short-selling demonstrates significant optimization capabilities, achieving consistent positive returns during backtesting periods. Compared to traditional approaches, this model delivers superior risk-adjusted returns while reducing maximum drawdown. From an allocation perspective, the DRL model establishes a robust investment style, enhancing defensive capabilities through strategic avoidance of underperforming assets and balanced capital allocation. This research contributes to portfolio theory while providing novel methodologies for quantitative investment practice.
- Abstract(参考訳): 人工知能の急速な発展により、データ駆動方式は従来のポートフォリオ最適化の限界を効果的に克服する。
従来のモデルは、リスクを多様化するために非常に相関性の高い資産を除いて、主に長期限定のメカニズムを使用する。
しかし、短期販売の導入は、関連資産のヘッジを通じて低リスクの仲裁を可能にする。
本稿では,中国のA株市場における過剰リターン戦略を探求し,実際の取引規則に適合する短期販売機構を備えたポートフォリオ管理フレームワークを構築する。
1) 長期にわたる取引の動的進化を考慮に入れた連続取引における包括的短売機構の開発,(2) シャープ比報酬関数を用いた多次元金融時系列処理のためのディープニューラルネットワークの統合による長短最適化フレームワークの設計。
実証実験の結果, 短時間販売のDRLモデルは, バックテスト期間中に一貫した正のリターンを達成し, 大幅な最適化能力を示すことがわかった。
従来のアプローチと比較して、このモデルはリスク調整されたリターンを向上し、最大損失を低減します。
割当の観点からは、DRLモデルはロバストな投資スタイルを確立し、未達成資産の戦略的回避とバランスの取れた資本割当を通じて防衛能力を強化する。
この研究はポートフォリオ理論に寄与し、量的投資実践のための新しい方法論を提供する。
関連論文リスト
- Reinforcement-Learning Portfolio Allocation with Dynamic Embedding of Market Information [12.032301674764552]
我々は,高次元,非定常,低信号の市場情報から生じる課題に対処するために,ディープラーニング技術を活用したポートフォリオアロケーションフレームワークを開発した。
我々は、生成的オートエンコーダとオンラインメタラーニングを統合し、市場情報を動的に埋め込む強化学習フレームワークを設計する。
米国株上位500銘柄に基づく実証分析は、当社のフレームワークが共通のポートフォリオベンチマークを上回っていることを示している。
論文 参考訳(メタデータ) (2025-01-29T20:56:59Z) - A Deep Reinforcement Learning Framework For Financial Portfolio Management [3.186092314772714]
ディープラーニング技術によって解決されるポートフォリオ管理の問題である。
このフレームワークを実現するために、CNN(Convolutional Neural Network)、RNN(Basic Recurrent Neural Network)、Long Short-Term Memory(Long Short-Term Memory)という3つの異なるインスタンスが使用される。
我々は、優れたリターンを得られる原紙の複製に成功したが、株式市場に適用されると、うまく機能しない。
論文 参考訳(メタデータ) (2024-09-03T20:11:04Z) - Cryptocurrency Portfolio Optimization by Neural Networks [81.20955733184398]
本稿では,これらの投資商品を活用するために,ニューラルネットワークに基づく効果的なアルゴリズムを提案する。
シャープ比を最大化するために、各アセットの割り当て重量を時間間隔で出力するディープニューラルネットワークを訓練する。
ネットワークの特定の資産に対するバイアスを規制する新たな損失項を提案し,最小分散戦略に近い割り当て戦略をネットワークに学習させる。
論文 参考訳(メタデータ) (2023-10-02T12:33:28Z) - Mastering the Unsupervised Reinforcement Learning Benchmark from Pixels [112.63440666617494]
強化学習アルゴリズムは成功するが、エージェントと環境の間の大量の相互作用を必要とする。
本稿では,教師なしモデルベースRLを用いてエージェントを事前学習する手法を提案する。
我々はReal-Word RLベンチマークにおいて、適応中の環境摂動に対する抵抗性を示唆し、堅牢な性能を示す。
論文 参考訳(メタデータ) (2022-09-24T14:22:29Z) - An intelligent algorithmic trading based on a risk-return reinforcement
learning algorithm [0.0]
本稿では,改良された深部強化学習アルゴリズムを用いたポートフォリオ最適化モデルを提案する。
提案アルゴリズムはアクター・クリティカル・アーキテクチャに基づいており、クリティカル・ネットワークの主な課題はポートフォリオ累積リターンの分布を学習することである。
Ape-xと呼ばれるマルチプロセスを用いて、深層強化学習訓練の高速化を図る。
論文 参考訳(メタデータ) (2022-08-23T03:20:06Z) - Auto-Transfer: Learning to Route Transferrable Representations [77.30427535329571]
本稿では,適切なターゲット表現にソース表現をルートする方法を自動学習する,新しい対向型マルチアームバンディット手法を提案する。
最先端の知識伝達手法と比較すると,5%以上の精度向上が期待できる。
論文 参考訳(メタデータ) (2022-02-02T13:09:27Z) - Factor Representation and Decision Making in Stock Markets Using Deep
Reinforcement Learning [1.242591017155152]
我々は,S&P500株のポートフォリオ選択を定期的に行うために,直接強化学習を用いたポートフォリオ管理システムを構築している。
その結果、市場条件と最適ポートフォリオ割り当ての効果的な学習は、平均的市場を著しく上回る可能性が示唆された。
論文 参考訳(メタデータ) (2021-08-03T21:31:46Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - A Design Space Study for LISTA and Beyond [79.76740811464597]
近年では、反復アルゴリズムの展開による問題固有のディープネットワーク構築に大きな成功を収めている。
本稿では,深層ネットワークにおける設計アプローチとしてのアンローリングの役割について再考する。
スパースリカバリのためのlistaを代表例として,未ロールモデルに対する設計空間調査を初めて実施した。
論文 参考訳(メタデータ) (2021-04-08T23:01:52Z) - MAPS: Multi-agent Reinforcement Learning-based Portfolio Management
System [23.657021288146158]
マルチエージェント強化学習に基づくポートフォリオ管理システム(MAPS)を提案する。
MAPSは、各エージェントが独立した「投資者」であり、独自のポートフォリオを作成する協調システムである。
米国の12年間の市場データによる実験の結果、MAPSはシャープ比でベースラインの大半を上回っている。
論文 参考訳(メタデータ) (2020-07-10T14:08:12Z) - Incentive Mechanism Design for Resource Sharing in Collaborative Edge
Learning [106.51930957941433]
5GとBeyondネットワークでは、人工知能のアプリケーションがますます普及すると予想されている。
これは、現在のクラウド中心のモデルトレーニングアプローチから、エッジラーニングとして知られるエッジコンピューティングベースの協調学習スキームへのパラダイムシフトを必要とする。
論文 参考訳(メタデータ) (2020-05-31T12:45:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。