論文の概要: Commodities Trading through Deep Policy Gradient Methods
- arxiv url: http://arxiv.org/abs/2309.00630v1
- Date: Thu, 10 Aug 2023 17:21:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-10 03:56:38.593955
- Title: Commodities Trading through Deep Policy Gradient Methods
- Title(参考訳): 深い政策勾配手法による商品取引
- Authors: Jonas Hanetho
- Abstract要約: 商品取引問題を連続的な離散時間力学系として定式化する。
アクターベースとアクタークリティカルベースの2つのポリシーアルゴリズムが導入された。
先月末の天然ガス先物試験では、DRLモデルのシャープ比が買いと持ち株ベースラインと比較して83%高くなることが示されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Algorithmic trading has gained attention due to its potential for generating
superior returns. This paper investigates the effectiveness of deep
reinforcement learning (DRL) methods in algorithmic commodities trading. It
formulates the commodities trading problem as a continuous, discrete-time
stochastic dynamical system. The proposed system employs a novel
time-discretization scheme that adapts to market volatility, enhancing the
statistical properties of subsampled financial time series. To optimize
transaction-cost- and risk-sensitive trading agents, two policy gradient
algorithms, namely actor-based and actor-critic-based approaches, are
introduced. These agents utilize CNNs and LSTMs as parametric function
approximators to map historical price observations to market
positions.Backtesting on front-month natural gas futures demonstrates that DRL
models increase the Sharpe ratio by $83\%$ compared to the buy-and-hold
baseline. Additionally, the risk profile of the agents can be customized
through a hyperparameter that regulates risk sensitivity in the reward function
during the optimization process. The actor-based models outperform the
actor-critic-based models, while the CNN-based models show a slight performance
advantage over the LSTM-based models.
- Abstract(参考訳): アルゴリズム取引は、優れたリターンを生み出す可能性から注目を集めている。
本稿では,アルゴリズム商品取引における深層強化学習(DRL)手法の有効性について検討する。
商品取引問題を連続的離散時間確率力学系として定式化する。
提案システムは,市場ボラティリティに適応し,サブサンプルファイナンス時系列の統計特性を向上する新たな時間分散方式を採用している。
取引コストとリスクに敏感な取引エージェントを最適化するために、アクターベースとアクタークリティカルベースの2つのポリシー勾配アルゴリズムを導入した。
これらのエージェントは、CNNとLSTMをパラメトリック関数近似器として利用し、過去の価格観測を市場ポジションにマッピングする。
さらに、エージェントのリスクプロファイルは、最適化プロセス中に報奨機能のリスク感度を調節するハイパーパラメータを通じてカスタマイズすることができる。
アクターベースのモデルはアクター批評家ベースのモデルより優れており、CNNベースのモデルはLSTMベースのモデルよりも若干パフォーマンス上の優位性を示している。
関連論文リスト
- RVRAE: A Dynamic Factor Model Based on Variational Recurrent Autoencoder
for Stock Returns Prediction [5.281288833470249]
RVRAEは、市場データの時間的依存関係とノイズに対処する確率論的アプローチである。
揮発性株式市場のリスクモデリングに長けており、潜在空間分布からのばらつきを推定し、リターンを予測する。
論文 参考訳(メタデータ) (2024-03-04T21:48:32Z) - Deep Policy Gradient Methods in Commodity Markets [0.0]
トレーダーは流動性を提供し、ボラティリティを下げることで市場の安定化に重要な役割を果たしている。
本論文は,商品取引における深層強化学習手法の有効性について考察する。
論文 参考訳(メタデータ) (2023-06-14T11:50:23Z) - Structured Dynamic Pricing: Optimal Regret in a Global Shrinkage Model [50.06663781566795]
消費者の嗜好と価格感が時間とともに変化する動的モデルを考える。
我々は,モデルパラメータの順序を事前に把握している透視者と比較して,収益損失が予想される,後悔による動的価格政策の性能を計測する。
提案した政策の最適性を示すだけでなく,政策立案のためには,利用可能な構造情報を組み込むことが不可欠であることを示す。
論文 参考訳(メタデータ) (2023-03-28T00:23:23Z) - DeepVol: Volatility Forecasting from High-Frequency Data with Dilated
Causal Convolutions [78.6363825307044]
本稿では,Dilated Causal Convolutionsに基づくDeepVolモデルを提案する。
拡張畳み込みフィルタは日内財務データから関連情報を抽出するのに最適であることを示す。
論文 参考訳(メタデータ) (2022-09-23T16:13:47Z) - Machine learning method for return direction forecasting of Exchange
Traded Funds using classification and regression models [0.0]
本稿では、ETF(Exchange Traded Funds)からのリターンの方向分析のための機械学習手法の提案と適用を目的とする。
ブラジルとアメリカの市場の標準データセットを使用して、回帰モデルと分類モデルを適用した。
リスクとリターンの面では、主にコントロールメトリクスよりもパフォーマンスが優れています。
論文 参考訳(メタデータ) (2022-05-25T12:54:46Z) - Bayesian Bilinear Neural Network for Predicting the Mid-price Dynamics
in Limit-Order Book Markets [84.90242084523565]
伝統的な時系列計量法は、価格力学を駆動する多層相互作用の真の複雑さを捉えることができないことが多い。
最先端の2次最適化アルゴリズムを採用することで、時間的注意を払ってベイジアン双線形ニューラルネットワークを訓練する。
予測分布を用いて推定パラメータとモデル予測に関連する誤差や不確実性を解析することにより、ベイズモデルと従来のML代替品を徹底的に比較する。
論文 参考訳(メタデータ) (2022-03-07T18:59:54Z) - Bitcoin Transaction Strategy Construction Based on Deep Reinforcement
Learning [8.431365407963629]
本研究では,PPO(Deep reinforcement Learning Algorithm-proximal Policy Optimization)に基づく,高速ビットコイン自動取引のためのフレームワークを提案する。
提案したフレームワークは、ボラティリティと急上昇の期間を通じて過剰なリターンを得ることができるため、ディープラーニングに基づく単一暗号通貨取引戦略を構築するための扉を開くことができる。
論文 参考訳(メタデータ) (2021-09-30T01:24:03Z) - GA-MSSR: Genetic Algorithm Maximizing Sharpe and Sterling Ratio Method
for RoboTrading [0.4568777157687961]
外国為替は世界最大の金融市場である。
ほとんどの文献は、歴史的価格情報と技術指標を訓練に用いた。
この問題に対処するため,我々は,技術指標と取引規則から派生した取引規則の特徴を設計した。
論文 参考訳(メタデータ) (2020-08-16T05:33:35Z) - Deep Stock Predictions [58.720142291102135]
本稿では,Long Short Term Memory (LSTM) ニューラルネットワークを用いてポートフォリオ最適化を行うトレーディング戦略の設計について考察する。
次に、LSTMのトレーニングに使用する損失関数をカスタマイズし、利益を上げる。
カスタマイズされた損失関数を持つLSTMモデルは、ARIMAのような回帰ベースライン上でのトレーニングボットの性能を向上させる。
論文 参考訳(メタデータ) (2020-06-08T23:37:47Z) - MOPO: Model-based Offline Policy Optimization [183.6449600580806]
オフライン強化学習(英語: offline reinforcement learning, RL)とは、以前に収集された大量のデータから完全に学習ポリシーを学習する問題を指す。
既存のモデルベースRLアルゴリズムは,すでにオフライン設定において大きな利益を上げていることを示す。
本稿では,既存のモデルに基づくRL法を,力学の不確実性によって人為的に罰せられる報酬で適用することを提案する。
論文 参考訳(メタデータ) (2020-05-27T08:46:41Z) - Adaptive Control and Regret Minimization in Linear Quadratic Gaussian
(LQG) Setting [91.43582419264763]
我々は不確実性に直面した楽観主義の原理に基づく新しい強化学習アルゴリズムLqgOptを提案する。
LqgOptはシステムのダイナミクスを効率的に探索し、モデルのパラメータを信頼区間まで推定し、最も楽観的なモデルのコントローラをデプロイする。
論文 参考訳(メタデータ) (2020-03-12T19:56:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。