論文の概要: Safe-FinRL: A Low Bias and Variance Deep Reinforcement Learning
Implementation for High-Freq Stock Trading
- arxiv url: http://arxiv.org/abs/2206.05910v1
- Date: Mon, 13 Jun 2022 05:40:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-14 17:57:18.171986
- Title: Safe-FinRL: A Low Bias and Variance Deep Reinforcement Learning
Implementation for High-Freq Stock Trading
- Title(参考訳): Safe-FinRL:高速株式取引のための低バイアス・可変深層強化学習実装
- Authors: Zitao Song, Xuyang Jin, Chenliang Li
- Abstract要約: 本稿では,DRLをベースとした新規な株式取引戦略であるSafe-FinRLを提案する。
主な貢献は、長期の金融時系列を、ほぼ静止した短期環境に分割することである。
次に, ソフトアクター・クリティカルに一般トレース演算子を組み込むことにより, ほぼ定常的な金融環境下でのトレース-SACを実装した。
- 参考スコア(独自算出の注目度): 26.217805781416764
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, many practitioners in quantitative finance have attempted to
use Deep Reinforcement Learning (DRL) to build better quantitative trading (QT)
strategies. Nevertheless, many existing studies fail to address several serious
challenges, such as the non-stationary financial environment and the bias and
variance trade-off when applying DRL in the real financial market. In this
work, we proposed Safe-FinRL, a novel DRL-based high-freq stock trading
strategy enhanced by the near-stationary financial environment and low bias and
variance estimation. Our main contributions are twofold: firstly, we separate
the long financial time series into the near-stationary short environment;
secondly, we implement Trace-SAC in the near-stationary financial environment
by incorporating the general retrace operator into the Soft Actor-Critic.
Extensive experiments on the cryptocurrency market have demonstrated that
Safe-FinRL has provided a stable value estimation and a steady policy
improvement and reduced bias and variance significantly in the near-stationary
financial environment.
- Abstract(参考訳): 近年、量的金融の実践者の多くが、より優れた量的取引(QT)戦略を構築するためにDeep Reinforcement Learning(DRL)を使用しようと試みている。
しかしながら、既存の多くの研究は、非定常的な金融環境や実際の金融市場にDRLを適用する際のバイアスや分散トレードオフなど、いくつかの深刻な課題に対処できていない。
そこで本研究では,固定的金融環境と低バイアス・分散推定によって強化された,新規なdrlベースの株取引戦略であるsafe-finrlを提案する。
第一に、長い金融時系列をほぼ定常的な短い環境に分離し、第二に、一般的なリトレースオペレータをソフトアクタ-クリティックに組み込むことにより、ほぼ定常な金融環境にトレースsacを実装する。
暗号通貨市場における大規模な実験は、Safe-FinRLが安定的な価値推定と安定した政策改善を提供し、ほぼ定常的な金融環境においてバイアスと分散を著しく低減したことを示している。
関連論文リスト
- Deep Reinforcement Learning Strategies in Finance: Insights into Asset Holding, Trading Behavior, and Purchase Diversity [0.0]
本稿では、金融資産の保有・取引傾向と、深層強化学習(DRL)アルゴリズムの購入多様性について考察する。
以上の結果から,各DRLアルゴリズムは独自の取引パターンと戦略を示し,A2Cが累積報酬のトップパフォーマーとして出現していることがわかった。
論文 参考訳(メタデータ) (2024-06-29T20:56:58Z) - Deep Hedging with Market Impact [0.20482269513546458]
本稿では,Deep Reinforcement Learning(DRL)に基づく新しい市場インパクト動的ヘッジモデルを提案する。
DRLモデルから得られた最適ポリシーは、いくつかのオプションヘッジシミュレーションを用いて分析され、デルタヘッジのような一般的な手順と比較される。
論文 参考訳(メタデータ) (2024-02-20T19:08:24Z) - Diffusion Variational Autoencoder for Tackling Stochasticity in
Multi-Step Regression Stock Price Prediction [54.21695754082441]
長期的地平線上での多段階の株価予測は、ボラティリティの予測に不可欠である。
多段階の株価予測に対する現在の解決策は、主に単一段階の分類に基づく予測のために設計されている。
深層階層型変分オートコーダ(VAE)と拡散確率的手法を組み合わせてセック2seqの株価予測を行う。
本モデルでは, 予測精度と分散性の観点から, 最先端の解よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-18T16:21:15Z) - Factor Investing with a Deep Multi-Factor Model [123.52358449455231]
我々は、業界中立化と市場中立化モジュールを明確な財務見識をもって取り入れた、新しい深層多要素モデルを開発する。
実世界の株式市場データによるテストは、我々の深層多要素モデルの有効性を示している。
論文 参考訳(メタデータ) (2022-10-22T14:47:11Z) - Quantitative Stock Investment by Routing Uncertainty-Aware Trading
Experts: A Multi-Task Learning Approach [29.706515133374193]
既存のディープラーニング手法はランダムなシードやネットワークルータに敏感であることを示す。
本稿では,成功した取引会社の効果的なボトムアップトレーディング戦略設計ワークフローを模倣する,量的投資のための新しい2段階混成(MoE)フレームワークを提案する。
AlphaMixは4つの財務基準において、最先端のベースラインを大きく上回っている。
論文 参考訳(メタデータ) (2022-06-07T08:58:00Z) - Bayesian Bilinear Neural Network for Predicting the Mid-price Dynamics
in Limit-Order Book Markets [84.90242084523565]
伝統的な時系列計量法は、価格力学を駆動する多層相互作用の真の複雑さを捉えることができないことが多い。
最先端の2次最適化アルゴリズムを採用することで、時間的注意を払ってベイジアン双線形ニューラルネットワークを訓練する。
予測分布を用いて推定パラメータとモデル予測に関連する誤差や不確実性を解析することにより、ベイズモデルと従来のML代替品を徹底的に比較する。
論文 参考訳(メタデータ) (2022-03-07T18:59:54Z) - DeepScalper: A Risk-Aware Reinforcement Learning Framework to Capture
Fleeting Intraday Trading Opportunities [33.28409845878758]
日内取引のための深層強化学習フレームワークであるDeepScalperを提案する。
我々は、DeepScalperが4つの財務基準において、最先端のベースラインを著しく上回っていることを示す。
論文 参考訳(メタデータ) (2021-12-15T15:24:02Z) - FinRL-Meta: A Universe of Near-Real Market Environments for Data-Driven
Deep Reinforcement Learning in Quantitative Finance [58.77314662664463]
FinRL-Metaは、データ駆動型金融強化学習のための市場環境の宇宙を構築している。
まず、FinRL-MetaはDRLベースの戦略の設計パイプラインから財務データ処理を分離する。
第2に、FinRL-Metaは様々な取引タスクに数百の市場環境を提供している。
論文 参考訳(メタデータ) (2021-12-13T16:03:37Z) - Deep Reinforcement Learning in Quantitative Algorithmic Trading: A
Review [0.0]
深層強化学習エージェントはChessやGoといった多くのゲームで想定される力であることが証明された。
本稿では、ファイナンスにおけるAIのサブドメインにおける深層強化学習の進歩を概観する。
我々は、株取引におけるDRLは、強い前提の下でプロのトレーダーと競合する可能性が大きいと結論付けている。
論文 参考訳(メタデータ) (2021-05-31T22:26:43Z) - Conservative Q-Learning for Offline Reinforcement Learning [106.05582605650932]
CQLは既存のオフラインRLメソッドよりも大幅に優れており、多くの場合、ファイナルリターンの2~5倍高いポリシを学習しています。
理論的には、CQLは現在のポリシーの価値の低いバウンダリを生成し、理論的改善保証を伴う政策学習手順に組み込むことができることを示す。
論文 参考訳(メタデータ) (2020-06-08T17:53:42Z) - Reinforcement-Learning based Portfolio Management with Augmented Asset
Movement Prediction States [71.54651874063865]
ポートフォリオマネジメント(PM)は、最大利益や最小リスクといった投資目標を達成することを目的としている。
本稿では,PMのための新しいステート拡張RLフレームワークであるSARLを提案する。
当社の枠組みは, 金融PMにおける2つのユニークな課題に対処することを目的としている。(1) データの異種データ -- 資産毎の収集情報は通常, 多様性, ノイズ, 不均衡(ニュース記事など), (2) 環境の不確実性 -- 金融市場は多様で非定常である。
論文 参考訳(メタデータ) (2020-02-09T08:10:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。