論文の概要: Recent Advances in Reinforcement Learning in Finance
- arxiv url: http://arxiv.org/abs/2112.04553v1
- Date: Wed, 8 Dec 2021 19:55:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-10 15:46:28.854912
- Title: Recent Advances in Reinforcement Learning in Finance
- Title(参考訳): 金融における強化学習の最近の進歩
- Authors: Ben Hambly, Renyuan Xu and Huining Yang
- Abstract要約: データ量の増加による金融業界の急激な変化は、データ処理やデータ分析に関する技術に革命をもたらした。
強化学習(RL)による新たな発展は、大量の財務データをフル活用することができる。
- 参考スコア(独自算出の注目度): 3.0079490585515343
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The rapid changes in the finance industry due to the increasing amount of
data have revolutionized the techniques on data processing and data analysis
and brought new theoretical and computational challenges. In contrast to
classical stochastic control theory and other analytical approaches for solving
financial decision-making problems that heavily reply on model assumptions, new
developments from reinforcement learning (RL) are able to make full use of the
large amount of financial data with fewer model assumptions and to improve
decisions in complex financial environments. This survey paper aims to review
the recent developments and use of RL approaches in finance. We give an
introduction to Markov decision processes, which is the setting for many of the
commonly used RL approaches. Various algorithms are then introduced with a
focus on value and policy based methods that do not require any model
assumptions. Connections are made with neural networks to extend the framework
to encompass deep RL algorithms. Our survey concludes by discussing the
application of these RL algorithms in a variety of decision-making problems in
finance, including optimal execution, portfolio optimization, option pricing
and hedging, market making, smart order routing, and robo-advising.
- Abstract(参考訳): データの量の増加による金融業界の急速な変化は、データ処理とデータ分析の技術に革命をもたらし、新しい理論と計算の課題をもたらした。
従来の確率的制御理論や、モデル前提に強く答える金融決定問題の解決のための分析的アプローチとは対照的に、強化学習(RL)による新たな発展は、モデル前提よりも少ない大量の金融データをフル活用し、複雑な金融環境における意思決定を改善することができる。
本研究は、金融におけるRL手法の最近の展開と利用について概観することを目的とする。
我々は、よく使われているRLアプローチの多くの設定であるマルコフ決定プロセスについて紹介する。
様々なアルゴリズムが導入され、モデル前提を必要としない価値とポリシーに基づく手法に焦点が当てられる。
深いRLアルゴリズムを包含するフレームワークを拡張するために、ニューラルネットワークで接続する。
我々の調査は、最適実行、ポートフォリオ最適化、オプション価格とヘッジ、マーケットメイキング、スマートオーダールーティング、ロボアドバイスなど、金融におけるさまざまな意思決定問題におけるこれらのRLアルゴリズムの適用について議論することで締めくくっている。
関連論文リスト
- A Survey of Financial AI: Architectures, Advances and Open Challenges [0.6798775532273751]
金融AIは金融市場の予測、ポートフォリオ最適化、自動取引に対する洗練されたアプローチを強化する。
この調査は3つの主要な側面にわたるこれらの展開を体系的に分析する。
論文 参考訳(メタデータ) (2024-11-01T04:16:00Z) - A Review of Reinforcement Learning in Financial Applications [12.813502592542388]
強化学習(RL)は、金融における意思決定タスクを解決する大きな可能性を示している。
我々は、金融業界におけるRLの広範な活用を妨げる説明可能性、マルコフ決定プロセス(MDP)モデリング、ロバスト性などの課題を明らかにする。
本稿では,ベンチマーク,コンテキストRL,マルチエージェントRL,モデルベースRLなどの今後の研究方向性を提案する。
論文 参考訳(メタデータ) (2024-11-01T01:03:10Z) - The Evolution of Reinforcement Learning in Quantitative Finance [3.8535927070486697]
強化学習(RL)は過去10年間で大きな進歩を遂げており、金融分野のアプリケーションへの関心が高まっている。
この調査は167の出版物を批判的に評価し、金融における多様なRLアプリケーションとフレームワークを調査している。
金融市場は、その複雑さ、マルチエージェントの性質、情報非対称性、および固有のランダム性によって特徴付けられ、RLの興味深いテストベッドとして機能する。
論文 参考訳(メタデータ) (2024-08-20T15:15:10Z) - Stochastic Q-learning for Large Discrete Action Spaces [79.1700188160944]
離散的な行動空間を持つ複雑な環境では、強化学習(RL)において効果的な意思決定が重要である
我々は、$n$アクションの集合全体を最適化するのとは対照的に、おそらく$mathcalO(log(n)$)$のような変数の集合のみを考える。
提示された値ベースのRL手法には、Q-learning、StochDQN、StochDDQNなどが含まれる。
論文 参考訳(メタデータ) (2024-05-16T17:58:44Z) - A machine learning workflow to address credit default prediction [0.44943951389724796]
信用デフォルト予測(CDP)は個人や企業の信用力を評価する上で重要な役割を果たす。
CDPを改善するためのワークフローベースのアプローチを提案する。これは、借り手が信用義務を負う確率を評価するタスクを指す。
論文 参考訳(メタデータ) (2024-03-06T15:30:41Z) - Machine Learning Insides OptVerse AI Solver: Design Principles and
Applications [74.67495900436728]
本稿では,Huawei CloudのOpsVerse AIソルバに機械学習(ML)技術を統合するための総合的研究について述べる。
本稿では,実世界の多面構造を反映した生成モデルを用いて,複雑なSATインスタンスとMILPインスタンスを生成する手法を紹介する。
本稿では,解解器性能を著しく向上させる,最先端パラメータチューニングアルゴリズムの導入について詳述する。
論文 参考訳(メタデータ) (2024-01-11T15:02:15Z) - A Survey of Contextual Optimization Methods for Decision Making under
Uncertainty [47.73071218563257]
この記事では、データからポリシーを学ぶための3つの主要なフレームワークを特定し、その強みと限界について論じる。
統一的な表記と用語の下で既存のモデルとメソッドを示し、これらを3つの主要なフレームワークに従って分類する。
論文 参考訳(メタデータ) (2023-06-17T15:21:02Z) - Can ChatGPT Forecast Stock Price Movements? Return Predictability and Large Language Models [51.3422222472898]
ニュース見出しを用いて,ChatGPTのような大規模言語モデル(LLM)の株価変動を予測する能力について述べる。
我々は,情報容量制約,過小反応,制限対アビタージュ,LLMを組み込んだ理論モデルを構築した。
論文 参考訳(メタデータ) (2023-04-15T19:22:37Z) - Deep Reinforcement Learning Approach for Trading Automation in The Stock
Market [0.0]
本稿では,Deep Reinforcement Learning (DRL)アルゴリズムを用いて,株式市場における収益性取引を生成するモデルを提案する。
我々は、市場が課す制約を考慮して、部分的に観測されたマルコフ決定プロセス(POMDP)モデルとして取引問題を定式化する。
次に, Twin Delayed Deep Deterministic Policy Gradient (TD3) アルゴリズムを用いて, 2.68 Sharpe Ratio を未知のデータセットに報告し, 定式化した POMDP 問題を解く。
論文 参考訳(メタデータ) (2022-07-05T11:34:29Z) - Bayesian Bilinear Neural Network for Predicting the Mid-price Dynamics
in Limit-Order Book Markets [84.90242084523565]
伝統的な時系列計量法は、価格力学を駆動する多層相互作用の真の複雑さを捉えることができないことが多い。
最先端の2次最適化アルゴリズムを採用することで、時間的注意を払ってベイジアン双線形ニューラルネットワークを訓練する。
予測分布を用いて推定パラメータとモデル予測に関連する誤差や不確実性を解析することにより、ベイズモデルと従来のML代替品を徹底的に比較する。
論文 参考訳(メタデータ) (2022-03-07T18:59:54Z) - FinRL-Meta: A Universe of Near-Real Market Environments for Data-Driven
Deep Reinforcement Learning in Quantitative Finance [58.77314662664463]
FinRL-Metaは、データ駆動型金融強化学習のための市場環境の宇宙を構築している。
まず、FinRL-MetaはDRLベースの戦略の設計パイプラインから財務データ処理を分離する。
第2に、FinRL-Metaは様々な取引タスクに数百の市場環境を提供している。
論文 参考訳(メタデータ) (2021-12-13T16:03:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。