論文の概要: A Deep Reinforcement Learning Framework For Financial Portfolio Management
- arxiv url: http://arxiv.org/abs/2409.08426v1
- Date: Tue, 3 Sep 2024 20:11:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-22 21:50:24.048800
- Title: A Deep Reinforcement Learning Framework For Financial Portfolio Management
- Title(参考訳): 金融ポートフォリオ管理のための深層強化学習フレームワーク
- Authors: Jinyang Li,
- Abstract要約: ディープラーニング技術によって解決されるポートフォリオ管理の問題である。
このフレームワークを実現するために、CNN(Convolutional Neural Network)、RNN(Basic Recurrent Neural Network)、Long Short-Term Memory(Long Short-Term Memory)という3つの異なるインスタンスが使用される。
我々は、優れたリターンを得られる原紙の複製に成功したが、株式市場に適用されると、うまく機能しない。
- 参考スコア(独自算出の注目度): 3.186092314772714
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this research paper, we investigate into a paper named "A Deep Reinforcement Learning Framework for the Financial Portfolio Management Problem" [arXiv:1706.10059]. It is a portfolio management problem which is solved by deep learning techniques. The original paper proposes a financial-model-free reinforcement learning framework, which consists of the Ensemble of Identical Independent Evaluators (EIIE) topology, a Portfolio-Vector Memory (PVM), an Online Stochastic Batch Learning (OSBL) scheme, and a fully exploiting and explicit reward function. Three different instants are used to realize this framework, namely a Convolutional Neural Network (CNN), a basic Recurrent Neural Network (RNN), and a Long Short-Term Memory (LSTM). The performance is then examined by comparing to a number of recently reviewed or published portfolio-selection strategies. We have successfully replicated their implementations and evaluations. Besides, we further apply this framework in the stock market, instead of the cryptocurrency market that the original paper uses. The experiment in the cryptocurrency market is consistent with the original paper, which achieve superior returns. But it doesn't perform as well when applied in the stock market.
- Abstract(参考訳): 本稿では,「金融ポートフォリオ管理問題のための深層強化学習フレームワーク」 (arXiv:1706.10059) という論文を考察する。
ディープラーニング技術によって解決されるポートフォリオ管理の問題である。
本論文は,自己独立評価器(EIIE)トポロジ,ポートフォリオ・ベクターメモリ(PVM),オンライン確率バッチ学習(OSBL)スキーム,および完全活用かつ明示的な報酬関数からなる金融モデルフリー強化学習フレームワークを提案する。
このフレームワークを実現するために、CNN(Convolutional Neural Network)、RNN(Basic Recurrent Neural Network)、LSTM(Long Short-Term Memory)という3つの異なるインスタンスが使用される。
パフォーマンスは、最近レビューされた、または公開されたポートフォリオ選択戦略と比較することによって検証される。
私たちは彼らの実装と評価をうまく再現しました。
さらに、このフレームワークは、オリジナルの論文が使用している暗号通貨市場ではなく、株式市場にさらに適用します。
暗号通貨市場での実験は、優れたリターンを達成するオリジナルの論文と一致している。
しかし、株式市場に当てはまると、あまりうまくいきません。
関連論文リスト
- CITER: Collaborative Inference for Efficient Large Language Model Decoding with Token-Level Routing [56.98081258047281]
CITERはトークンレベルのルーティング戦略を通じて、小規模および大規模言語モデル(SLMs & LLMs)間の効率的な協調を可能にする。
ルータの学習をポリシー最適化として定式化し、予測の質と生成の推論コストの両方に基づいて報酬を受け取る。
実験の結果,CITERは高品質な生成を保ちながら推論コストを低減し,リアルタイムおよびリソース制約のあるアプリケーションに対して有望なソリューションを提供することがわかった。
論文 参考訳(メタデータ) (2025-02-04T03:36:44Z) - Next Token Prediction Towards Multimodal Intelligence: A Comprehensive Survey [93.72125112643596]
Next Token Prediction (NTP)は、機械学習タスクの多目的な学習目標である。
本調査では,マルチモーダル学習における理解と生成を一体化する包括的分類法を導入する。
提案した分類法は,マルチモーダルトークン化,MMNTPモデルアーキテクチャ,統合タスク表現,データセットと評価,オープンチャレンジの5つの重要な側面を網羅している。
論文 参考訳(メタデータ) (2024-12-16T05:02:25Z) - Exact Certification of (Graph) Neural Networks Against Label Poisoning [50.87615167799367]
機械学習モデルはラベルのフリップ(ラベルのフリップ)に弱い。
サンプルと集合証明書の両方を抽出し,正確な認証手法を提案する。
私たちの研究は、ニューラルネットワークによって引き起こされた毒殺攻撃に対する最初の正確な証明書を提示しました。
論文 参考訳(メタデータ) (2024-11-30T17:05:12Z) - Trustworthy Machine Learning [57.08542102068706]
信頼に値する機械学習(TML)に関する教科書は、TMLの4つの重要なトピックの理論的および技術的な背景をカバーしている。
本稿では、上記の分野に関する重要な古典的・現代的な研究論文について論じ、その基礎となる直観を解明し、接続する。
論文 参考訳(メタデータ) (2023-10-12T11:04:17Z) - Cryptocurrency Portfolio Optimization by Neural Networks [81.20955733184398]
本稿では,これらの投資商品を活用するために,ニューラルネットワークに基づく効果的なアルゴリズムを提案する。
シャープ比を最大化するために、各アセットの割り当て重量を時間間隔で出力するディープニューラルネットワークを訓練する。
ネットワークの特定の資産に対するバイアスを規制する新たな損失項を提案し,最小分散戦略に近い割り当て戦略をネットワークに学習させる。
論文 参考訳(メタデータ) (2023-10-02T12:33:28Z) - Model-Augmented Q-learning [112.86795579978802]
モデルベースRLの構成要素を付加したMFRLフレームワークを提案する。
具体的には、$Q$-valuesだけでなく、共有ネットワークにおける遷移と報酬の両方を見積もる。
提案手法は,MQL (Model-augmented $Q$-learning) とよばれる提案手法により,真に報いられた学習によって得られる解と同一のポリシ不変解が得られることを示す。
論文 参考訳(メタデータ) (2021-02-07T17:56:50Z) - Deep reinforcement learning for portfolio management based on the
empirical study of chinese stock market [3.5952664589125916]
本論文では,最新の技術である深層強化学習をポートフォリオ管理に適用できることを検証する。
実験では、市場のリターン率を表すCSI300や、ランダムに選択されたCSI500の構成成分など、ランダムに選択されたポートフォリオにモデルを使用。
論文 参考訳(メタデータ) (2020-12-26T16:25:20Z) - Detecting and adapting to crisis pattern with context based Deep
Reinforcement Learning [6.224519494738852]
本稿では、2つのサブネットワークで構成された革新的なDRLフレームワークを提案する。
テストセットの結果、このアプローチはMarkowitzのような従来のポートフォリオ最適化手法を大幅に上回っており、現在のCovidのような危機を検出し予測することができる。
論文 参考訳(メタデータ) (2020-09-07T12:11:08Z) - Application of Deep Q-Network in Portfolio Management [7.525667739427784]
本稿では,ストックマーケットにおけるポートフォリオ管理のための古典的ディープ強化学習アルゴリズムであるディープQネットワークに基づく戦略を提案する。
Q Learningによって最適化されたディープニューラルネットワークの一種である。
DQNアルゴリズムの利益は他の戦略の利益よりも30%高い。
論文 参考訳(メタデータ) (2020-03-13T16:20:51Z) - Using Reinforcement Learning in the Algorithmic Trading Problem [18.21650781888097]
株式市場での取引は、状態、行動、報酬からなるマルコフ特性を持つゲームに解釈される。
金融商品の定額取引システムを提案し,実験的に検証した。
論文 参考訳(メタデータ) (2020-02-26T14:30:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。