論文の概要: Learning Financial Asset-Specific Trading Rules via Deep Reinforcement
Learning
- arxiv url: http://arxiv.org/abs/2010.14194v1
- Date: Tue, 27 Oct 2020 10:59:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 12:06:11.753269
- Title: Learning Financial Asset-Specific Trading Rules via Deep Reinforcement
Learning
- Title(参考訳): 深層強化学習による金融資産特有取引ルールの学習
- Authors: Mehran Taghian, Ahmad Asadi, Reza Safabakhsh
- Abstract要約: さまざまな技術分析技術に基づいて様々な資産取引ルールを実験的に提案する。
深層強化学習法(DRL)は、各資産の新たな取引規則を学習するために用いられる。
この研究で提案されたモデルは、単一資産固有のトレーディングルールの学習において、他の最先端モデルよりも優れていた。
- 参考スコア(独自算出の注目度): 0.6445605125467573
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generating asset-specific trading signals based on the financial conditions
of the assets is one of the challenging problems in automated trading. Various
asset trading rules are proposed experimentally based on different technical
analysis techniques. However, these kind of trading strategies are profitable,
extracting new asset-specific trading rules from vast historical data to
increase total return and decrease the risk of portfolios is difficult for
human experts. Recently, various deep reinforcement learning (DRL) methods are
employed to learn the new trading rules for each asset. In this paper, a novel
DRL model with various feature extraction modules is proposed. The effect of
different input representations on the performance of the models is
investigated and the performance of DRL-based models in different markets and
asset situations is studied. The proposed model in this work outperformed the
other state-of-the-art models in learning single asset-specific trading rules
and obtained a total return of almost 262% in two years on a specific asset
while the best state-of-the-art model get 78% on the same asset in the same
time period.
- Abstract(参考訳): 資産の財務状況に基づいて資産固有の取引信号を生成することは、自動取引における難題の1つである。
さまざまな技術分析技術に基づいて様々な資産取引ルールを実験的に提案する。
しかし、こうしたトレーディング戦略は黒字であり、膨大な歴史データから新たな資産固有のトレーディングルールを抽出して総リターンを増やし、ポートフォリオのリスクを減らすことは、人間の専門家にとって困難である。
近年,各資産の新たな取引ルールを学ぶために,様々な深層強化学習(drl)手法が採用されている。
本稿では,様々な特徴抽出モジュールを用いたDRLモデルを提案する。
異なる入力表現がモデルの性能に及ぼす影響を調査し,異なる市場および資産状況におけるDRLモデルの性能について検討した。
この研究で提案されたモデルは、単一資産固有の取引ルールを学習する際の他の最先端モデルよりも優れており、特定の資産について2年間で262%近いリターンを得た一方、最高の最先端モデルは、同じ期間に同じ資産で78%を得ることができた。
関連論文リスト
- When AI Meets Finance (StockAgent): Large Language Model-based Stock Trading in Simulated Real-world Environments [55.19252983108372]
LLMによって駆動される、StockAgentと呼ばれるマルチエージェントAIシステムを開発した。
StockAgentを使えば、ユーザーはさまざまな外部要因が投資家取引に与える影響を評価することができる。
AIエージェントに基づく既存のトレーディングシミュレーションシステムに存在するテストセットのリーク問題を回避する。
論文 参考訳(メタデータ) (2024-07-15T06:49:30Z) - MOT: A Mixture of Actors Reinforcement Learning Method by Optimal Transport for Algorithmic Trading [6.305870529904885]
マーケットの異なるパターンをモデル化するために,複数のアクターを非交叉表現学習で設計するMOTを提案する。
将来の市場データによる実験結果から,MOTはリスクのバランスを保ちながら優れた収益性を示すことが示された。
論文 参考訳(メタデータ) (2024-06-03T01:42:52Z) - Optimizing Portfolio Management and Risk Assessment in Digital Assets
Using Deep Learning for Predictive Analysis [5.015409508372732]
本稿では,DQNアルゴリズムを新規かつ簡単な方法で資産管理ポートフォリオに導入する。
この性能はベンチマークをはるかに上回り、ポートフォリオ管理におけるDRLアルゴリズムの有効性を十分に証明している。
異なる資産は別々に環境として訓練されるので、異なる資産間でQ値が漂う現象があるかもしれない。
論文 参考訳(メタデータ) (2024-02-25T05:23:57Z) - Combining Transformer based Deep Reinforcement Learning with
Black-Litterman Model for Portfolio Optimization [0.0]
モデルフリーのアルゴリズムとして、深層強化学習(DRL)エージェントは、教師なしの方法で環境と対話することで学習し、決定する。
DRLエージェントとBlack-Litterman (BL)モデルを組み合わせたハイブリッドポートフォリオ最適化モデルを提案する。
我々のDRLエージェントは、様々な比較ポートフォリオ選択戦略と代替DRLフレームワークを、累積リターンで少なくとも42%上回っている。
論文 参考訳(メタデータ) (2024-02-23T16:01:37Z) - Cryptocurrency Portfolio Optimization by Neural Networks [81.20955733184398]
本稿では,これらの投資商品を活用するために,ニューラルネットワークに基づく効果的なアルゴリズムを提案する。
シャープ比を最大化するために、各アセットの割り当て重量を時間間隔で出力するディープニューラルネットワークを訓練する。
ネットワークの特定の資産に対するバイアスを規制する新たな損失項を提案し,最小分散戦略に近い割り当て戦略をネットワークに学習させる。
論文 参考訳(メタデータ) (2023-10-02T12:33:28Z) - Hedging Properties of Algorithmic Investment Strategies using Long
Short-Term Memory and Time Series models for Equity Indices [0.0]
本稿では,金融危機に伴うリスク資産のポートフォリオ拡大に対する新たなアプローチを提案する。
我々は、価格予測を生成するために4種類の多様な理論モデルを使用し、単一のAISと複雑なAISの投資信号を生成するのに使用される。
我々の主な結論は、LSTMベースの戦略が他のモデルよりも優れており、S&P 500インデックスのために構築されたAISにとって最良の多様化要因はBitcoinのためのAISであるということだ。
論文 参考訳(メタデータ) (2023-09-27T13:18:39Z) - MinT: Boosting Generalization in Mathematical Reasoning via Multi-View
Fine-Tuning [53.90744622542961]
数学領域における推論は、小言語モデル(LM)にとって重要な課題である。
多様なアノテーションスタイルで既存の数学的問題データセットを利用する新しい手法を提案する。
実験結果から,LLaMA-7Bモデルが先行手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-07-16T05:41:53Z) - Factor Investing with a Deep Multi-Factor Model [123.52358449455231]
我々は、業界中立化と市場中立化モジュールを明確な財務見識をもって取り入れた、新しい深層多要素モデルを開発する。
実世界の株式市場データによるテストは、我々の深層多要素モデルの有効性を示している。
論文 参考訳(メタデータ) (2022-10-22T14:47:11Z) - SimSCOOD: Systematic Analysis of Out-of-Distribution Generalization in
Fine-tuned Source Code Models [58.78043959556283]
本研究は,Low-Rank Adaptation (LoRA)ファインチューニング手法を含む,異なる微調整手法によるモデルの挙動について検討する。
解析の結果、LoRAファインチューニングは様々なシナリオにおけるフルファインチューニングよりも、OODの一般化性能が大幅に向上していることが判明した。
論文 参考訳(メタデータ) (2022-10-10T16:07:24Z) - Quantitative Stock Investment by Routing Uncertainty-Aware Trading
Experts: A Multi-Task Learning Approach [29.706515133374193]
既存のディープラーニング手法はランダムなシードやネットワークルータに敏感であることを示す。
本稿では,成功した取引会社の効果的なボトムアップトレーディング戦略設計ワークフローを模倣する,量的投資のための新しい2段階混成(MoE)フレームワークを提案する。
AlphaMixは4つの財務基準において、最先端のベースラインを大きく上回っている。
論文 参考訳(メタデータ) (2022-06-07T08:58:00Z) - Reinforcement-Learning based Portfolio Management with Augmented Asset
Movement Prediction States [71.54651874063865]
ポートフォリオマネジメント(PM)は、最大利益や最小リスクといった投資目標を達成することを目的としている。
本稿では,PMのための新しいステート拡張RLフレームワークであるSARLを提案する。
当社の枠組みは, 金融PMにおける2つのユニークな課題に対処することを目的としている。(1) データの異種データ -- 資産毎の収集情報は通常, 多様性, ノイズ, 不均衡(ニュース記事など), (2) 環境の不確実性 -- 金融市場は多様で非定常である。
論文 参考訳(メタデータ) (2020-02-09T08:10:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。