論文の概要: Recent Advances in Reinforcement Learning in Finance
- arxiv url: http://arxiv.org/abs/2112.04553v1
- Date: Wed, 8 Dec 2021 19:55:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-10 15:46:28.854912
- Title: Recent Advances in Reinforcement Learning in Finance
- Title(参考訳): 金融における強化学習の最近の進歩
- Authors: Ben Hambly, Renyuan Xu and Huining Yang
- Abstract要約: データ量の増加による金融業界の急激な変化は、データ処理やデータ分析に関する技術に革命をもたらした。
強化学習(RL)による新たな発展は、大量の財務データをフル活用することができる。
- 参考スコア(独自算出の注目度): 3.0079490585515343
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The rapid changes in the finance industry due to the increasing amount of
data have revolutionized the techniques on data processing and data analysis
and brought new theoretical and computational challenges. In contrast to
classical stochastic control theory and other analytical approaches for solving
financial decision-making problems that heavily reply on model assumptions, new
developments from reinforcement learning (RL) are able to make full use of the
large amount of financial data with fewer model assumptions and to improve
decisions in complex financial environments. This survey paper aims to review
the recent developments and use of RL approaches in finance. We give an
introduction to Markov decision processes, which is the setting for many of the
commonly used RL approaches. Various algorithms are then introduced with a
focus on value and policy based methods that do not require any model
assumptions. Connections are made with neural networks to extend the framework
to encompass deep RL algorithms. Our survey concludes by discussing the
application of these RL algorithms in a variety of decision-making problems in
finance, including optimal execution, portfolio optimization, option pricing
and hedging, market making, smart order routing, and robo-advising.
- Abstract(参考訳): データの量の増加による金融業界の急速な変化は、データ処理とデータ分析の技術に革命をもたらし、新しい理論と計算の課題をもたらした。
従来の確率的制御理論や、モデル前提に強く答える金融決定問題の解決のための分析的アプローチとは対照的に、強化学習(RL)による新たな発展は、モデル前提よりも少ない大量の金融データをフル活用し、複雑な金融環境における意思決定を改善することができる。
本研究は、金融におけるRL手法の最近の展開と利用について概観することを目的とする。
我々は、よく使われているRLアプローチの多くの設定であるマルコフ決定プロセスについて紹介する。
様々なアルゴリズムが導入され、モデル前提を必要としない価値とポリシーに基づく手法に焦点が当てられる。
深いRLアルゴリズムを包含するフレームワークを拡張するために、ニューラルネットワークで接続する。
我々の調査は、最適実行、ポートフォリオ最適化、オプション価格とヘッジ、マーケットメイキング、スマートオーダールーティング、ロボアドバイスなど、金融におけるさまざまな意思決定問題におけるこれらのRLアルゴリズムの適用について議論することで締めくくっている。
関連論文リスト
- A machine learning workflow to address credit default prediction [0.44943951389724796]
信用デフォルト予測(CDP)は個人や企業の信用力を評価する上で重要な役割を果たす。
CDPを改善するためのワークフローベースのアプローチを提案する。これは、借り手が信用義務を負う確率を評価するタスクを指す。
論文 参考訳(メタデータ) (2024-03-06T15:30:41Z) - Machine Learning Insides OptVerse AI Solver: Design Principles and
Applications [74.67495900436728]
本稿では,Huawei CloudのOpsVerse AIソルバに機械学習(ML)技術を統合するための総合的研究について述べる。
本稿では,実世界の多面構造を反映した生成モデルを用いて,複雑なSATインスタンスとMILPインスタンスを生成する手法を紹介する。
本稿では,解解器性能を著しく向上させる,最先端パラメータチューニングアルゴリズムの導入について詳述する。
論文 参考訳(メタデータ) (2024-01-11T15:02:15Z) - Rethinking and Benchmarking Predict-then-Optimize Paradigm for
Combinatorial Optimization Problems [62.25108152764568]
多くのWebアプリケーションは、エネルギーコストを考慮したスケジューリング、Web広告の予算配分、ソーシャルネットワークでのグラフマッチングなど、最適化問題の解決に頼っている。
統一システムにおける予測と意思決定の性能について考察する。
我々は、現在のアプローチを包括的に分類し、既存の実験シナリオを統合する。
論文 参考訳(メタデータ) (2023-11-13T13:19:34Z) - A Survey of Contextual Optimization Methods for Decision Making under
Uncertainty [47.73071218563257]
この記事では、データからポリシーを学ぶための3つの主要なフレームワークを特定し、その強みと限界について論じる。
統一的な表記と用語の下で既存のモデルとメソッドを示し、これらを3つの主要なフレームワークに従って分類する。
論文 参考訳(メタデータ) (2023-06-17T15:21:02Z) - Deep Reinforcement Learning Approach for Trading Automation in The Stock
Market [0.0]
本稿では,Deep Reinforcement Learning (DRL)アルゴリズムを用いて,株式市場における収益性取引を生成するモデルを提案する。
我々は、市場が課す制約を考慮して、部分的に観測されたマルコフ決定プロセス(POMDP)モデルとして取引問題を定式化する。
次に, Twin Delayed Deep Deterministic Policy Gradient (TD3) アルゴリズムを用いて, 2.68 Sharpe Ratio を未知のデータセットに報告し, 定式化した POMDP 問題を解く。
論文 参考訳(メタデータ) (2022-07-05T11:34:29Z) - Bayesian Bilinear Neural Network for Predicting the Mid-price Dynamics
in Limit-Order Book Markets [84.90242084523565]
伝統的な時系列計量法は、価格力学を駆動する多層相互作用の真の複雑さを捉えることができないことが多い。
最先端の2次最適化アルゴリズムを採用することで、時間的注意を払ってベイジアン双線形ニューラルネットワークを訓練する。
予測分布を用いて推定パラメータとモデル予測に関連する誤差や不確実性を解析することにより、ベイズモデルと従来のML代替品を徹底的に比較する。
論文 参考訳(メタデータ) (2022-03-07T18:59:54Z) - FinRL-Meta: A Universe of Near-Real Market Environments for Data-Driven
Deep Reinforcement Learning in Quantitative Finance [58.77314662664463]
FinRL-Metaは、データ駆動型金融強化学習のための市場環境の宇宙を構築している。
まず、FinRL-MetaはDRLベースの戦略の設計パイプラインから財務データ処理を分離する。
第2に、FinRL-Metaは様々な取引タスクに数百の市場環境を提供している。
論文 参考訳(メタデータ) (2021-12-13T16:03:37Z) - An Experimental Design Perspective on Model-Based Reinforcement Learning [73.37942845983417]
環境からの状態遷移を観察するのは費用がかかる。
標準RLアルゴリズムは通常、学習するために多くの観測を必要とする。
本稿では,マルコフ決定過程について,状態-作用対がどの程度の情報を提供するかを定量化する獲得関数を提案する。
論文 参考訳(メタデータ) (2021-12-09T23:13:57Z) - Bridging the gap between Markowitz planning and deep reinforcement
learning [0.0]
本稿では,Deep Reinforcement Learning(深層強化学習)技術がポートフォリオアロケーションに新たな光を放つ方法を示す。
i)DRLは、設計による行動に直接市場条件をマッピングし、環境の変化に適応すべきであり、(ii)DRLは、リスクが分散によって表されるような従来の金融リスクの仮定に依存せず、(iii)DRLは追加データを組み込むことができ、より伝統的な最適化手法とは対照的にマルチインプット方式である。
論文 参考訳(メタデータ) (2020-09-30T04:03:27Z) - Comprehensive Review of Deep Reinforcement Learning Methods and
Applications in Economics [9.080472817672264]
DRLの特徴は、高次元問題に適用可能なスケーラビリティと、経済データのノイズおよび非線形パターンとを併用したスケーラビリティである。
DRLのアーキテクチャを経済応用に適用し,複雑性,堅牢性,精度,性能,計算タスク,リスク制約,収益性を明らかにする。
論文 参考訳(メタデータ) (2020-03-21T14:07:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。