論文の概要: Dueling Deep Reinforcement Learning for Financial Time Series
- arxiv url: http://arxiv.org/abs/2504.11601v1
- Date: Tue, 15 Apr 2025 20:30:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-17 14:39:01.772042
- Title: Dueling Deep Reinforcement Learning for Financial Time Series
- Title(参考訳): 金融時系列の深層強化学習
- Authors: Bruno Giorgio,
- Abstract要約: 強化学習は動的環境における意思決定問題を解決するための強力なパラダイムとして登場した。
我々の焦点は、取引コストなどの現実的な制約を考慮しつつ、取引戦略を最適化できる訓練エージェントである。
この研究は、手数料のないシナリオにおけるモデルパフォーマンスを評価し、報酬力学に対するコスト感受性環境の影響を強調した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Reinforcement learning (RL) has emerged as a powerful paradigm for solving decision-making problems in dynamic environments. In this research, we explore the application of Double DQN (DDQN) and Dueling Network Architectures, to financial trading tasks using historical SP500 index data. Our focus is training agents capable of optimizing trading strategies while accounting for practical constraints such as transaction costs. The study evaluates the model performance across scenarios with and without commissions, highlighting the impact of cost-sensitive environments on reward dynamics. Despite computational limitations and the inherent complexity of financial time series data, the agent successfully learned meaningful trading policies. The findings confirm that RL agents, even when trained on limited datasets, can outperform random strategies by leveraging advanced architectures such as DDQN and Dueling Networks. However, significant challenges persist, particularly with a sub-optimal policy due to the complexity of data source.
- Abstract(参考訳): 強化学習(Reinforcement Learning, RL)は、動的環境における意思決定問題を解決するための強力なパラダイムとして登場した。
本研究では,Double DQN(DDQN)とDurling Network Architectures(Dueling Network Architectures)の歴史的SP500インデックスデータを用いた金融取引業務への適用について検討する。
我々の焦点は、取引コストなどの現実的な制約を考慮しつつ、取引戦略を最適化できる訓練エージェントである。
この研究は、手数料のないシナリオにおけるモデルパフォーマンスを評価し、報酬力学に対するコスト感受性環境の影響を強調した。
計算の制限と金融時系列データの本質的な複雑さにもかかわらず、エージェントは意味のある取引ポリシーをうまく習得した。
その結果、限られたデータセットでトレーニングされたRLエージェントは、DDQNやDueling Networksといった高度なアーキテクチャを活用することで、ランダムなストラテジーより優れていることが確認された。
しかし、特にデータソースの複雑さのために、サブ最適ポリシーでは、大きな課題が続いている。
関連論文リスト
- Revisiting Robust RAG: Do We Still Need Complex Robust Training in the Era of Powerful LLMs? [69.38149239733994]
モデル容量が増大するにつれて、複雑な堅牢なトレーニング戦略が必要かどうかを検討する。
モデルがより強力になるにつれて、複雑な堅牢なトレーニングメソッドによってもたらされるパフォーマンス向上が劇的に減少することがわかった。
この結果から,RAGシステムはモデルがより強力になるにつれて,よりシンプルなアーキテクチャやトレーニング戦略の恩恵を受けることが示唆された。
論文 参考訳(メタデータ) (2025-02-17T03:34:31Z) - Self-Regulation and Requesting Interventions [63.5863047447313]
介入要求のための"helper"ポリシーをトレーニングするオフラインフレームワークを提案する。
PRMによる最適介入タイミングを判定し,これらのラベル付き軌道上でヘルパーモデルを訓練する。
このオフラインアプローチは、トレーニング中のコストのかかる介入コールを大幅に削減する。
論文 参考訳(メタデータ) (2025-02-07T00:06:17Z) - CITER: Collaborative Inference for Efficient Large Language Model Decoding with Token-Level Routing [56.98081258047281]
Token-lEvel Routing(CITER)との協調推論は、小規模および大規模言語モデルの効率的な協調を可能にするフレームワークである。
ルータの学習をポリシー最適化として定式化し、予測の質と生成の推論コストの両方に基づいて報酬を受け取る。
実験の結果,CITERは高品質な生成を保ちながら推論コストを低減し,リアルタイムおよびリソース制約のあるアプリケーションに対して有望なソリューションを提供することがわかった。
論文 参考訳(メタデータ) (2025-02-04T03:36:44Z) - Collaborative Optimization in Financial Data Mining Through Deep Learning and ResNeXt [4.047576220541502]
本研究ではResNeXtに基づくマルチタスク学習フレームワークを提案する。
提案手法は精度,F1スコア,ルート平均二乗誤差,その他の指標において優れた性能を示す。
論文 参考訳(メタデータ) (2024-12-23T06:14:15Z) - Optimizing Credit Limit Adjustments Under Adversarial Goals Using
Reinforcement Learning [42.303733194571905]
我々は、強化学習技術を用いて最適なクレジットカード制限調整ポリシーを発見し、自動化することを模索する。
本研究は、信用限度調整に強化学習フレームワークを適用するための概念構造を確立する。
論文 参考訳(メタデータ) (2023-06-27T16:10:36Z) - FIRE: A Failure-Adaptive Reinforcement Learning Framework for Edge Computing Migrations [52.85536740465277]
FIREは、エッジコンピューティングのディジタルツイン環境でRLポリシーをトレーニングすることで、まれなイベントに適応するフレームワークである。
ImREは重要なサンプリングに基づくQ-ラーニングアルゴリズムであり、希少事象をその値関数への影響に比例してサンプリングする。
FIREは故障時にバニラRLやグリーディベースラインと比較してコストを削減できることを示す。
論文 参考訳(メタデータ) (2022-09-28T19:49:39Z) - Recent Advances in Reinforcement Learning in Finance [3.0079490585515343]
データ量の増加による金融業界の急激な変化は、データ処理やデータ分析に関する技術に革命をもたらした。
強化学習(RL)による新たな発展は、大量の財務データをフル活用することができる。
論文 参考訳(メタデータ) (2021-12-08T19:55:26Z) - Integration of Convolutional Neural Networks in Mobile Applications [3.0280987248827085]
本稿では,Deep Learningモデルを統合するシステムの性能について,精度と複雑性のトレードオフとして検討する。
モバイルアプリケーションにDLベースのソフトウェアをデプロイする際の最も重要な課題を特定する。
論文 参考訳(メタデータ) (2021-03-11T15:27:05Z) - Detecting and adapting to crisis pattern with context based Deep
Reinforcement Learning [6.224519494738852]
本稿では、2つのサブネットワークで構成された革新的なDRLフレームワークを提案する。
テストセットの結果、このアプローチはMarkowitzのような従来のポートフォリオ最適化手法を大幅に上回っており、現在のCovidのような危機を検出し予測することができる。
論文 参考訳(メタデータ) (2020-09-07T12:11:08Z) - Conservative Q-Learning for Offline Reinforcement Learning [106.05582605650932]
CQLは既存のオフラインRLメソッドよりも大幅に優れており、多くの場合、ファイナルリターンの2~5倍高いポリシを学習しています。
理論的には、CQLは現在のポリシーの価値の低いバウンダリを生成し、理論的改善保証を伴う政策学習手順に組み込むことができることを示す。
論文 参考訳(メタデータ) (2020-06-08T17:53:42Z) - Cost-Sensitive Portfolio Selection via Deep Reinforcement Learning [100.73223416589596]
深層強化学習を用いたコスト依存型ポートフォリオ選択手法を提案する。
具体的には、価格系列パターンと資産相関の両方を抽出するために、新しい2ストリームポートフォリオポリシーネットワークを考案した。
蓄積したリターンを最大化し、強化学習によるコストの両立を抑えるため、新たなコスト感受性報酬関数が開発された。
論文 参考訳(メタデータ) (2020-03-06T06:28:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。