論文の概要: Deep Reinforcement Learning in Quantitative Algorithmic Trading: A
Review
- arxiv url: http://arxiv.org/abs/2106.00123v1
- Date: Mon, 31 May 2021 22:26:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-03 04:43:59.903697
- Title: Deep Reinforcement Learning in Quantitative Algorithmic Trading: A
Review
- Title(参考訳): 定量的アルゴリズム取引における深層強化学習
- Authors: Tidor-Vlad Pricope
- Abstract要約: 深層強化学習エージェントはChessやGoといった多くのゲームで想定される力であることが証明された。
本稿では、ファイナンスにおけるAIのサブドメインにおける深層強化学習の進歩を概観する。
我々は、株取引におけるDRLは、強い前提の下でプロのトレーダーと競合する可能性が大きいと結論付けている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Algorithmic stock trading has become a staple in today's financial market,
the majority of trades being now fully automated. Deep Reinforcement Learning
(DRL) agents proved to be to a force to be reckon with in many complex games
like Chess and Go. We can look at the stock market historical price series and
movements as a complex imperfect information environment in which we try to
maximize return - profit and minimize risk. This paper reviews the progress
made so far with deep reinforcement learning in the subdomain of AI in finance,
more precisely, automated low-frequency quantitative stock trading. Many of the
reviewed studies had only proof-of-concept ideals with experiments conducted in
unrealistic settings and no real-time trading applications. For the majority of
the works, despite all showing statistically significant improvements in
performance compared to established baseline strategies, no decent
profitability level was obtained. Furthermore, there is a lack of experimental
testing in real-time, online trading platforms and a lack of meaningful
comparisons between agents built on different types of DRL or human traders. We
conclude that DRL in stock trading has showed huge applicability potential
rivalling professional traders under strong assumptions, but the research is
still in the very early stages of development.
- Abstract(参考訳): アルゴリズムによる株式取引は、今日の金融市場では重要な存在となり、取引の大部分は完全に自動化されている。
深層強化学習(Dep Reinforcement Learning, DRL)エージェントは、チェスや囲碁といった複雑なゲームでよく見られる力であることが判明した。
株式市場の歴史的価格シリーズや動きを、利益とリスクの最小化を最大化しようとする複雑な不完全な情報環境と見なすことができる。
本稿では、金融分野におけるAIのサブドメインにおける深い強化学習による進歩を、より正確には、自動化された低頻度の量的株式取引でレビューする。
レビューされた研究の多くは概念実証の理想しか持たず、非現実的な環境で実験を行い、リアルタイム取引の応用も無かった。
ほとんどの作品では、確立されたベースライン戦略と比較して統計的に著しく性能が向上したものの、まともな収益性レベルは得られなかった。
さらに、リアルタイムのオンライントレーディングプラットフォームにおける実験的なテストの欠如や、DRLやヒューマントレーダのさまざまなタイプ上に構築されたエージェント間の有意義な比較の欠如がある。
我々は、株取引におけるdrlは、強い仮定の下でプロトレーダーに匹敵する大きな適用可能性を示したが、研究はまだ初期段階にあると結論づけた。
関連論文リスト
- When AI Meets Finance (StockAgent): Large Language Model-based Stock Trading in Simulated Real-world Environments [55.19252983108372]
LLMによって駆動される、StockAgentと呼ばれるマルチエージェントAIシステムを開発した。
StockAgentを使えば、ユーザーはさまざまな外部要因が投資家取引に与える影響を評価することができる。
AIエージェントに基づく既存のトレーディングシミュレーションシステムに存在するテストセットのリーク問題を回避する。
論文 参考訳(メタデータ) (2024-07-15T06:49:30Z) - MOT: A Mixture of Actors Reinforcement Learning Method by Optimal Transport for Algorithmic Trading [6.305870529904885]
マーケットの異なるパターンをモデル化するために,複数のアクターを非交叉表現学習で設計するMOTを提案する。
将来の市場データによる実験結果から,MOTはリスクのバランスを保ちながら優れた収益性を示すことが示された。
論文 参考訳(メタデータ) (2024-06-03T01:42:52Z) - Combining Deep Learning on Order Books with Reinforcement Learning for
Profitable Trading [0.0]
本研究は,注文フローを用いた複数地平線におけるリターン予測と,5つの金融機器を対象とした3つの時間差不均衡学習モデルを訓練することに焦点を当てる。
この結果は潜在的な可能性を証明しているが、小売取引コスト、滑り込み、スプレッド・揺らぎを完全に処理するためには、一貫した黒字取引のためのさらなる最小限の修正が必要である。
論文 参考訳(メタデータ) (2023-10-24T15:58:58Z) - Learning Multi-Agent Intention-Aware Communication for Optimal
Multi-Order Execution in Finance [96.73189436721465]
まず,現実的な制約を考慮したマルチオーダー実行のためのマルチエージェントRL(MARL)手法を提案する。
本稿では,学習可能なマルチラウンド通信プロトコルを提案する。
2つの実世界の市場のデータに関する実験では、優れたパフォーマンスを示し、コラボレーションの有効性が著しく向上した。
論文 参考訳(メタデータ) (2023-07-06T16:45:40Z) - Quantitative Trading using Deep Q Learning [0.0]
強化学習(Reinforcement Learning、RL)は、ロボット工学、ゲームプレイ、自律システムなど、さまざまな用途で使用されている機械学習の分野である。
本稿では,量的取引におけるRLの利用について検討し,RLに基づく取引アルゴリズムのケーススタディを示す。
論文 参考訳(メタデータ) (2023-04-03T11:57:36Z) - Deep Reinforcement Learning for Cryptocurrency Trading: Practical
Approach to Address Backtest Overfitting [15.69458914236069]
深層強化学習を用いた暗号通貨取引のバックテストオーバーフィッティングに対処する実践的アプローチを提案する。
我々はDRLエージェントを訓練し、過剰適合の確率を推定し、過適合のエージェントを拒絶し、良好な取引性能の機会を増大させる。
過度に適合しない深層強化学習エージェントは、過剰適合エージェントよりもシャープ比が高く、均等な重量戦略、S&P DBM指数が示される。
論文 参考訳(メタデータ) (2022-09-12T19:18:48Z) - Retrieval-Augmented Reinforcement Learning [63.32076191982944]
過去の経験のデータセットを最適な行動にマップするために、ネットワークをトレーニングします。
検索プロセスは、現在のコンテキストで有用なデータセットから情報を取得するために訓練される。
検索強化R2D2はベースラインR2D2エージェントよりもかなり高速に学習し,より高いスコアを得ることを示す。
論文 参考訳(メタデータ) (2022-02-17T02:44:05Z) - Finding General Equilibria in Many-Agent Economic Simulations Using Deep
Reinforcement Learning [72.23843557783533]
本研究では,エージェント種別のメタゲームに対して,エプシロン・ナッシュ平衡である安定解を求めることができることを示す。
私たちのアプローチはより柔軟で、例えば市場クリア化のような非現実的な仮定は必要ありません。
当社のアプローチは、実際のビジネスサイクルモデル、DGEモデルの代表的なファミリー、100人の労働者消費者、10社の企業、税金と再分配を行う政府で実証しています。
論文 参考訳(メタデータ) (2022-01-03T17:00:17Z) - FinRL-Meta: A Universe of Near-Real Market Environments for Data-Driven
Deep Reinforcement Learning in Quantitative Finance [58.77314662664463]
FinRL-Metaは、データ駆動型金融強化学習のための市場環境の宇宙を構築している。
まず、FinRL-MetaはDRLベースの戦略の設計パイプラインから財務データ処理を分離する。
第2に、FinRL-Metaは様々な取引タスクに数百の市場環境を提供している。
論文 参考訳(メタデータ) (2021-12-13T16:03:37Z) - Deep Q-Learning Market Makers in a Multi-Agent Simulated Stock Market [58.720142291102135]
本稿では,エージェント・ベースの観点から,これらのマーケット・メーカーの戦略に関する研究に焦点をあてる。
模擬株式市場における知的市場マーカー作成のための強化学習(Reinforcement Learning, RL)の適用を提案する。
論文 参考訳(メタデータ) (2021-12-08T14:55:21Z) - FinRL: A Deep Reinforcement Learning Library for Automated Stock Trading
in Quantitative Finance [20.43261517036651]
DRLライブラリFinRLを導入し、初心者が定量的ファイナンスに自分自身を公開できるようにする。
FinRLはNASDAQ-100、DJIA、S&P 500、HSI、SSE 50、CSI 300など、さまざまな株式市場のトレーディング環境をシミュレートしている。
取引コスト、市場の流動性、投資家のリスク回避の度合いといった重要なトレーディングの制約が組み込まれている。
論文 参考訳(メタデータ) (2020-11-19T01:35:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。