論文の概要: MCTG:Multi-frequency continuous-share trading algorithm with GARCH based
on deep reinforcement learning
- arxiv url: http://arxiv.org/abs/2105.03625v1
- Date: Sat, 8 May 2021 08:00:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 14:34:22.338213
- Title: MCTG:Multi-frequency continuous-share trading algorithm with GARCH based
on deep reinforcement learning
- Title(参考訳): MCTG:深部強化学習に基づくGARCHを用いた多周波連続共有取引アルゴリズム
- Authors: Zhishun Wang, Wei Lu, Kaixin Zhang, Tianhao Li, Zixi Zhao
- Abstract要約: そこで本研究では,garch (mctg) を用いたマルチ周波数連続共有トレーディングアルゴリズムを提案する。
強化学習アルゴリズムの連続的な動作空間を持つ後者は、株式取引の問題を解決するために使用される。
中国株式市場の異なる業界での実験では、基本的なDRL法やベンチモデルと比較して余分な利益が得られている。
- 参考スコア(独自算出の注目度): 5.1727003187913665
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Making profits in stock market is a challenging task for both professional
institutional investors and individual traders. With the development
combination of quantitative trading and reinforcement learning, more trading
algorithms have achieved significant gains beyond the benchmark model Buy&Hold
(B&H). There is a certain gap between these algorithms and the real trading
decision making scenarios. On the one hand, they only consider trading signals
while ignoring the number of transactions. On the other hand, the information
level considered by these algorithms is not rich enough, which limits the
performance of these algorithms. Thus, we propose an algorithm called the
Multi-frequency Continuous-share Trading algorithm with GARCH (MCTG) to solve
the problems above, which consists of parallel network layers and deep
reinforcement learning. The former is composed of three parallel network
layers, respectively dealing with different frequencies (five minute, one day,
one week) data, and day level considers the volatilities of stocks. The latter
with a continuous action space of the reinforcement learning algorithm is used
to solve the problem of trading stock shares. Experiments in different
industries of Chinese stock market show our method achieves more extra profit
comparing with basic DRL methods and bench model.
- Abstract(参考訳): 株式市場で利益を上げることは、プロの機関投資家と個人トレーダーの両方にとって難しい課題だ。
量的トレーディングと強化学習の組み合わせにより、ベンチマークモデルであるBuy&Hold(B&H)を超えて、より多くのトレーディングアルゴリズムが大幅に向上した。
これらのアルゴリズムと実際の取引決定シナリオの間には、ある程度のギャップがある。
一方、取引数を無視しながら、取引信号のみを考慮する。
一方、これらのアルゴリズムが考慮する情報レベルは十分ではないため、これらのアルゴリズムの性能は制限される。
そこで本稿では,GARCH (MCTG) を用いた多周波連続共有トレーディングアルゴリズム (Multi- frequency Continuous-Share Trading Algorithm) を提案する。
前者は3つの並列ネットワーク層で構成され、それぞれ異なる周波数(5分、1日、1週間)のデータを扱う。
強化学習アルゴリズムの連続的な動作空間を持つ後者は、株式取引の問題を解決するために使用される。
中国株式市場の異なる業界での実験では、基本的なDRL法やベンチモデルと比較して余分な利益が得られている。
関連論文リスト
- MacroHFT: Memory Augmented Context-aware Reinforcement Learning On High Frequency Trading [20.3106468936159]
強化学習(RL)は、高周波取引(HFT)のもう一つの魅力あるアプローチとなっている。
我々は,新しいメモリ拡張コンテキスト認識強化学習手法であるOn HFT, empha.k. MacroHFTを提案する。
マイクロレベルのトレーディングタスクにおいて,MacroHFTは最先端のパフォーマンスを実現することができることを示す。
論文 参考訳(メタデータ) (2024-06-20T17:48:24Z) - A Deep Reinforcement Learning Approach for Trading Optimization in the Forex Market with Multi-Agent Asynchronous Distribution [0.0]
この研究は、最先端の非同期アドバンテージ・アクター・クリティカル(A3C)アルゴリズムを用いたマルチエージェント(MA)RLフレームワークの適用を先導する。
ロックとロックなしの2つの異なるA3Cが提案され、単一通貨とマルチ通貨で訓練された。
以上の結果から,両モデルが近似政策最適化モデルよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-05-30T12:07:08Z) - Cryptocurrency Portfolio Optimization by Neural Networks [81.20955733184398]
本稿では,これらの投資商品を活用するために,ニューラルネットワークに基づく効果的なアルゴリズムを提案する。
シャープ比を最大化するために、各アセットの割り当て重量を時間間隔で出力するディープニューラルネットワークを訓練する。
ネットワークの特定の資産に対するバイアスを規制する新たな損失項を提案し,最小分散戦略に近い割り当て戦略をネットワークに学習させる。
論文 参考訳(メタデータ) (2023-10-02T12:33:28Z) - Analysis of frequent trading effects of various machine learning models [8.975239844705415]
提案アルゴリズムでは,ニューラルネットワーク予測を用いてトレーディング信号を生成し,売買操作を実行する。
ニューラルネットワークのパワーを活用することで、アルゴリズムはトレーディング戦略の正確性と信頼性を高める。
論文 参考訳(メタデータ) (2023-09-14T05:17:09Z) - Learning Multi-Agent Intention-Aware Communication for Optimal
Multi-Order Execution in Finance [96.73189436721465]
まず,現実的な制約を考慮したマルチオーダー実行のためのマルチエージェントRL(MARL)手法を提案する。
本稿では,学習可能なマルチラウンド通信プロトコルを提案する。
2つの実世界の市場のデータに関する実験では、優れたパフォーマンスを示し、コラボレーションの有効性が著しく向上した。
論文 参考訳(メタデータ) (2023-07-06T16:45:40Z) - Algorithmic Trading Using Continuous Action Space Deep Reinforcement
Learning [11.516147824168732]
本稿では、Twin-Delayed DDPG(TD3)と日替わり価格を用いて、株式および暗号通貨市場でのトレーディング戦略を実現するためのアプローチを提案する。
本研究では,株式(Amazon)と暗号通貨(Bitcoin)の両市場を対象とし,提案アルゴリズムの性能評価を行った。
論文 参考訳(メタデータ) (2022-10-07T11:42:31Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Optimal Robustness-Consistency Trade-offs for Learning-Augmented Online
Algorithms [85.97516436641533]
機械学習予測を取り入れたオンラインアルゴリズムの性能向上の課題について検討する。
目標は、一貫性と堅牢性の両方を備えたアルゴリズムを設計することだ。
機械学習予測を用いた競合解析のための非自明な下界の最初のセットを提供する。
論文 参考訳(メタデータ) (2020-10-22T04:51:01Z) - Taking Over the Stock Market: Adversarial Perturbations Against
Algorithmic Traders [47.32228513808444]
本稿では,敵対的学習手法を用いて,攻撃者がアルゴリズム取引システムに影響を与える現実的なシナリオを提案する。
入力ストリームに追加されると、我々の摂動は将来目に見えないデータポイントのトレーディングアルゴリズムを騙すことができることを示す。
論文 参考訳(メタデータ) (2020-10-19T06:28:05Z) - A Deep Reinforcement Learning Framework for Continuous Intraday Market
Bidding [69.37299910149981]
再生可能エネルギー源統合の成功の鍵となる要素は、エネルギー貯蔵の利用である。
欧州の継続的な日内市場におけるエネルギー貯蔵の戦略的関与をモデル化するための新しい枠組みを提案する。
本アルゴリズムの分散バージョンは, サンプル効率のため, この問題を解決するために選択される。
その結果, エージェントは, ベンチマーク戦略よりも平均的収益率の高い政策に収束することが示唆された。
論文 参考訳(メタデータ) (2020-04-13T13:50:13Z) - An Application of Deep Reinforcement Learning to Algorithmic Trading [4.523089386111081]
本稿では, 深部強化学習(DRL)に基づくアルゴリズム取引問題の解法を提案する。
幅広い株式市場でシャープ比のパフォーマンス指標を最大化するために、新しいDRLトレーディング戦略を提案する。
得られた強化学習 (RL) エージェントのトレーニングは, 限られた市場履歴データから人工軌道を生成することに基づいている。
論文 参考訳(メタデータ) (2020-04-07T14:57:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。