論文の概要: FinRL: A Deep Reinforcement Learning Library for Automated Stock Trading
in Quantitative Finance
- arxiv url: http://arxiv.org/abs/2011.09607v2
- Date: Wed, 2 Mar 2022 14:28:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-23 21:43:38.470947
- Title: FinRL: A Deep Reinforcement Learning Library for Automated Stock Trading
in Quantitative Finance
- Title(参考訳): FinRL: 株式自動取引のための量的ファイナンスのための深層強化学習ライブラリ
- Authors: Xiao-Yang Liu, Hongyang Yang, Qian Chen, Runjia Zhang, Liuqing Yang,
Bowen Xiao, Christina Dan Wang
- Abstract要約: DRLライブラリFinRLを導入し、初心者が定量的ファイナンスに自分自身を公開できるようにする。
FinRLはNASDAQ-100、DJIA、S&P 500、HSI、SSE 50、CSI 300など、さまざまな株式市場のトレーディング環境をシミュレートしている。
取引コスト、市場の流動性、投資家のリスク回避の度合いといった重要なトレーディングの制約が組み込まれている。
- 参考スコア(独自算出の注目度): 20.43261517036651
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As deep reinforcement learning (DRL) has been recognized as an effective
approach in quantitative finance, getting hands-on experiences is attractive to
beginners. However, to train a practical DRL trading agent that decides where
to trade, at what price, and what quantity involves error-prone and arduous
development and debugging. In this paper, we introduce a DRL library FinRL that
facilitates beginners to expose themselves to quantitative finance and to
develop their own stock trading strategies. Along with easily-reproducible
tutorials, FinRL library allows users to streamline their own developments and
to compare with existing schemes easily. Within FinRL, virtual environments are
configured with stock market datasets, trading agents are trained with neural
networks, and extensive backtesting is analyzed via trading performance.
Moreover, it incorporates important trading constraints such as transaction
cost, market liquidity and the investor's degree of risk-aversion. FinRL is
featured with completeness, hands-on tutorial and reproducibility that favors
beginners: (i) at multiple levels of time granularity, FinRL simulates trading
environments across various stock markets, including NASDAQ-100, DJIA, S&P 500,
HSI, SSE 50, and CSI 300; (ii) organized in a layered architecture with modular
structure, FinRL provides fine-tuned state-of-the-art DRL algorithms (DQN,
DDPG, PPO, SAC, A2C, TD3, etc.), commonly-used reward functions and standard
evaluation baselines to alleviate the debugging workloads and promote the
reproducibility, and (iii) being highly extendable, FinRL reserves a complete
set of user-import interfaces. Furthermore, we incorporated three application
demonstrations, namely single stock trading, multiple stock trading, and
portfolio allocation. The FinRL library will be available on Github at link
https://github.com/AI4Finance-LLC/FinRL-Library.
- Abstract(参考訳): 深層強化学習(DRL)は定量的ファイナンスにおける効果的なアプローチとして認識されているため、初心者にとってはハンズオン体験が魅力的である。
しかしながら、取引先、価格、およびエラーが発生しやすい開発とデバッグを伴う量を決定する実用的なdrl取引エージェントを訓練する。
本稿では,DRLライブラリFinRLを導入し,初心者が量的金融に身をさらけ出し,独自の株式トレーディング戦略を開発する。
簡単に再現可能なチュートリアルに加えて、FinRLライブラリは、ユーザが自身の開発を合理化し、既存のスキームと簡単に比較できるようにする。
FinRLでは、仮想環境はストックマーケットデータセットで構成され、トレーディングエージェントはニューラルネットワークでトレーニングされ、トレーディングパフォーマンスを介して広範なバックテストが分析される。
さらに、取引コスト、市場流動性、投資家のリスク回避度といった重要な取引制約も含んでいる。
FinRLは、初心者を好む完全性、ハンズオンチュートリアル、再現性を備えている。
(i)複数の時間的粒度において、FinRLはNASDAQ-100、DJIA、S&P500、HSI、SSE50、CSI300を含む、さまざまな株式市場の取引環境をシミュレートする。
(II) モジュール構造を有する階層構造で構成されたFinRLは、DQN, DDPG, PPO, SAC, A2C, TD3などの微調整された最先端DRLアルゴリズム、一般的な報酬関数と標準評価基準を提供し、デバッグワークロードを緩和し再現性を促進する。
(iii)拡張性が高く、FinRLは完全なユーザ・インポート・インタフェースを予約する。
さらに,1株取引,複数株取引,ポートフォリオアロケーションという3つのアプリケーションのデモを行った。
FinRLライブラリはGithubでhttps://github.com/AI4Finance-LLC/FinRL-Library.comから入手できる。
関連論文リスト
- Q-SFT: Q-Learning for Language Models via Supervised Fine-Tuning [62.984693936073974]
価値に基づく強化学習は、幅広いマルチターン問題に対する効果的なポリシーを学ぶことができる。
現在の値ベースのRL法は、特に大規模な言語モデルの設定にスケールすることが困難であることが証明されている。
本稿では,これらの欠点に対処する新しいオフラインRLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-11-07T21:36:52Z) - AlphaFin: Benchmarking Financial Analysis with Retrieval-Augmented Stock-Chain Framework [48.3060010653088]
我々はAlphaFinデータセットをリリースし、従来の研究データセット、リアルタイム財務データ、手書きのチェーン・オブ・プリート(CoT)データを組み合わせています。
次に、AlphaFinデータセットを使用して、金融分析タスクを効果的に処理するために、Stock-Chainと呼ばれる最先端の手法をベンチマークします。
論文 参考訳(メタデータ) (2024-03-19T09:45:33Z) - How Can LLM Guide RL? A Value-Based Approach [68.55316627400683]
強化学習(Reinforcement Learning, RL)は、将来の行動方針をフィードバックで改善することにより、シーケンシャルな意思決定問題の事実上の標準的実践となった。
大規模言語モデル(LLM)の最近の発展は、言語理解と生成において印象的な能力を示したが、探索と自己改善能力に欠けていた。
我々はLINVITというアルゴリズムを開発し、LLMガイダンスを値ベースRLの正規化因子として組み込んで学習に必要なデータ量を大幅に削減する。
論文 参考訳(メタデータ) (2024-02-25T20:07:13Z) - FinBen: A Holistic Financial Benchmark for Large Language Models [75.09474986283394]
FinBenは、24の財務タスクにまたがる36のデータセットを含む、最初の大規模なオープンソース評価ベンチマークである。
FinBenは、幅広いタスクとデータセット、ストックトレーディングの最初の評価、新しいエージェントと検索可能な生成(RAG)の評価、およびテキスト要約、質問応答、株式トレーディングのための3つの新しいオープンソース評価データセットを提供する。
論文 参考訳(メタデータ) (2024-02-20T02:16:16Z) - Combining Deep Learning on Order Books with Reinforcement Learning for
Profitable Trading [0.0]
本研究は,注文フローを用いた複数地平線におけるリターン予測と,5つの金融機器を対象とした3つの時間差不均衡学習モデルを訓練することに焦点を当てる。
この結果は潜在的な可能性を証明しているが、小売取引コスト、滑り込み、スプレッド・揺らぎを完全に処理するためには、一貫した黒字取引のためのさらなる最小限の修正が必要である。
論文 参考訳(メタデータ) (2023-10-24T15:58:58Z) - Dynamic Datasets and Market Environments for Financial Reinforcement
Learning [68.11692837240756]
FinRL-Metaは、現実世界の市場からジムスタイルの市場環境へ動的データセットを処理するライブラリである。
我々は,ユーザが新しい取引戦略を設計するための足場として,人気のある研究論文を例示し,再現する。
また、ユーザが自身の結果を視覚化し、相対的なパフォーマンスを評価するために、このライブラリをクラウドプラットフォームにデプロイします。
論文 参考訳(メタデータ) (2023-04-25T22:17:31Z) - Astock: A New Dataset and Automated Stock Trading based on
Stock-specific News Analyzing Model [21.05128751957895]
我々はNLP支援株自動取引アルゴリズムを体系的に研究するプラットフォームを構築した。
それぞれの株について財務的なニュースを提供する。
私たちは各株に様々な株価要因を提供します。
より財務的な指標からパフォーマンスを評価する。
論文 参考訳(メタデータ) (2022-06-14T05:55:23Z) - FinRL-Meta: A Universe of Near-Real Market Environments for Data-Driven
Deep Reinforcement Learning in Quantitative Finance [58.77314662664463]
FinRL-Metaは、データ駆動型金融強化学習のための市場環境の宇宙を構築している。
まず、FinRL-MetaはDRLベースの戦略の設計パイプラインから財務データ処理を分離する。
第2に、FinRL-Metaは様々な取引タスクに数百の市場環境を提供している。
論文 参考訳(メタデータ) (2021-12-13T16:03:37Z) - FinRL: Deep Reinforcement Learning Framework to Automate Trading in
Quantitative Finance [22.808509136431645]
深層強化学習(DRL)は、量的ファイナンスにおいて競争力を持つと想定されている。
本稿では,オープンソースのフレームワーク textitFinRL を,量的トレーダーが学習曲線の急勾配を克服するのに役立つための完全なパイプラインとして提示する。
論文 参考訳(メタデータ) (2021-11-07T00:34:32Z) - Deep Reinforcement Learning in Quantitative Algorithmic Trading: A
Review [0.0]
深層強化学習エージェントはChessやGoといった多くのゲームで想定される力であることが証明された。
本稿では、ファイナンスにおけるAIのサブドメインにおける深層強化学習の進歩を概観する。
我々は、株取引におけるDRLは、強い前提の下でプロのトレーダーと競合する可能性が大きいと結論付けている。
論文 参考訳(メタデータ) (2021-05-31T22:26:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。