論文の概要: Revisiting Ensemble Methods for Stock Trading and Crypto Trading Tasks at ACM ICAIF FinRL Contest 2023-2024
- arxiv url: http://arxiv.org/abs/2501.10709v1
- Date: Sat, 18 Jan 2025 09:36:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:25:02.010695
- Title: Revisiting Ensemble Methods for Stock Trading and Crypto Trading Tasks at ACM ICAIF FinRL Contest 2023-2024
- Title(参考訳): ACM ICAIF FinRL Contest 2023-2024における株式取引と暗号取引のアンサンブル手法の再検討
- Authors: Nikolaus Holzer, Keyi Wang, Kairong Xiao, Xiao-Yang Liu Yanglet,
- Abstract要約: 1つのGPU上での大規模な並列シミュレーションはサンプリング速度を最大1,746タイムs$で改善する。
アンサンブルモデルは高い累積リターンを持ち、個々のエージェントよりも優れており、最大で4.17%の値引きを減らしている。
本稿では,2023年と2024年のACM ICAIF FinRL Contestsにおけるトレーディングタスクについて述べる。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Reinforcement learning has demonstrated great potential for performing financial tasks. However, it faces two major challenges: policy instability and sampling bottlenecks. In this paper, we revisit ensemble methods with massively parallel simulations on graphics processing units (GPUs), significantly enhancing the computational efficiency and robustness of trained models in volatile financial markets. Our approach leverages the parallel processing capability of GPUs to significantly improve the sampling speed for training ensemble models. The ensemble models combine the strengths of component agents to improve the robustness of financial decision-making strategies. We conduct experiments in both stock and cryptocurrency trading tasks to evaluate the effectiveness of our approach. Massively parallel simulation on a single GPU improves the sampling speed by up to $1,746\times$ using $2,048$ parallel environments compared to a single environment. The ensemble models have high cumulative returns and outperform some individual agents, reducing maximum drawdown by up to $4.17\%$ and improving the Sharpe ratio by up to $0.21$. This paper describes trading tasks at ACM ICAIF FinRL Contests in 2023 and 2024.
- Abstract(参考訳): 強化学習は、財政的なタスクを実行する大きな可能性を示している。
しかし、政策不安定性とボトルネックのサンプリングという2つの大きな課題に直面している。
本稿では,GPU 上での大規模並列シミュレーションによるアンサンブル手法を再検討し,揮発性金融市場における学習モデルの計算効率と堅牢性を大幅に向上させる。
提案手法では,GPUの並列処理機能を活用し,アンサンブルモデルのサンプリング速度を大幅に向上させる。
アンサンブルモデルは、金融決定戦略の堅牢性を改善するために、コンポーネントエージェントの強みを組み合わせる。
われわれのアプローチの有効性を評価するため、株式取引と暗号通貨取引の両方で実験を行っている。
1つのGPU上での大規模並列シミュレーションは、サンプリング速度を最大1,746\times$で改善する。
アンサンブルモデルは高い累積リターンを持ち、いくつかの個々のエージェントより優れており、最大ドローダウンを最大4.17セント、シャープ比を最大0.21ドルまで下げている。
本稿では,2023年と2024年のACM ICAIF FinRL Contestsにおけるトレーディングタスクについて述べる。
関連論文リスト
- Benchmarking Post-Training Quantization in LLMs: Comprehensive Taxonomy, Unified Evaluation, and Comparative Analysis [89.60263788590893]
後学習量子化(PTQ)技術は大規模言語モデル(LLM)圧縮に広く採用されている。
既存のアルゴリズムは主にパフォーマンスに重点を置いており、モデルサイズ、パフォーマンス、量子化ビット幅間のトレードオフを見越している。
論文 参考訳(メタデータ) (2025-02-18T07:35:35Z) - Hedge Fund Portfolio Construction Using PolyModel Theory and iTransformer [1.4061979259370274]
ヘッジファンドポートフォリオ構築のためのPolyModel理論を実装した。
我々は,長期アルファ,長期比,SVaRなどの定量的尺度を作成する。
また、最新のディープラーニング技術(iTransformer)を使って、上昇傾向を捉えています。
論文 参考訳(メタデータ) (2024-08-06T17:55:58Z) - Stretching Each Dollar: Diffusion Training from Scratch on a Micro-Budget [53.311109531586844]
大規模T2I拡散変圧器モデルの低コスト化を実証する。
我々は16億のパラメータスパーストランスをわずか1890ドルの経済的コストで訓練し、ゼロショット世代で12.7 FIDを達成する。
我々は、マイクロ予算での大規模拡散モデルのトレーニングをさらに民主化するために、エンドツーエンドのトレーニングパイプラインをリリースすることを目指している。
論文 参考訳(メタデータ) (2024-07-22T17:23:28Z) - Optimizing Distributed Training on Frontier for Large Language Models [7.251642875697334]
数十億のパラメータで大規模言語モデル(LLM)を訓練することは、重大な課題となり、かなりの計算資源を必要とする。
本研究では、世界初のエクサスケールスーパーコンピュータであるFrontierからこの計算を抽出するための効率的な分散トレーニング戦略を探求する。
論文 参考訳(メタデータ) (2023-12-20T02:03:15Z) - STORM: Efficient Stochastic Transformer based World Models for
Reinforcement Learning [82.03481509373037]
近年,モデルに基づく強化学習アルゴリズムは視覚入力環境において顕著な有効性を示している。
本稿では,強力なモデリングと生成機能を組み合わせた効率的な世界モデルアーキテクチャであるTransformer-based wORld Model (STORM)を紹介する。
Stormは、Atari 100$kベンチマークで平均126.7%の人的パフォーマンスを達成し、最先端のメソッドの中で新しい記録を樹立した。
論文 参考訳(メタデータ) (2023-10-14T16:42:02Z) - Finding General Equilibria in Many-Agent Economic Simulations Using Deep
Reinforcement Learning [72.23843557783533]
本研究では,エージェント種別のメタゲームに対して,エプシロン・ナッシュ平衡である安定解を求めることができることを示す。
私たちのアプローチはより柔軟で、例えば市場クリア化のような非現実的な仮定は必要ありません。
当社のアプローチは、実際のビジネスサイクルモデル、DGEモデルの代表的なファミリー、100人の労働者消費者、10社の企業、税金と再分配を行う政府で実証しています。
論文 参考訳(メタデータ) (2022-01-03T17:00:17Z) - Mutual Adversarial Training: Learning together is better than going
alone [82.78852509965547]
モデル間の相互作用が知識蒸留による堅牢性に与える影響について検討する。
本稿では,複数のモデルを同時に訓練する相互対人訓練(MAT)を提案する。
MATは、ホワイトボックス攻撃下で、モデル堅牢性と最先端メソッドを効果的に改善することができる。
論文 参考訳(メタデータ) (2021-12-09T15:59:42Z) - Bitcoin Transaction Strategy Construction Based on Deep Reinforcement
Learning [8.431365407963629]
本研究では,PPO(Deep reinforcement Learning Algorithm-proximal Policy Optimization)に基づく,高速ビットコイン自動取引のためのフレームワークを提案する。
提案したフレームワークは、ボラティリティと急上昇の期間を通じて過剰なリターンを得ることができるため、ディープラーニングに基づく単一暗号通貨取引戦略を構築するための扉を開くことができる。
論文 参考訳(メタデータ) (2021-09-30T01:24:03Z) - Softmax with Regularization: Better Value Estimation in Multi-Agent
Reinforcement Learning [72.28520951105207]
q$-learningの過大評価は、シングルエージェント強化学習で広く研究されている重要な問題である。
ベースラインから逸脱する大きな関節動作値をペナライズする,新たな正規化ベースの更新方式を提案する。
本手法は,StarCraft IIマイクロマネジメントの課題に対して,一貫した性能向上を実現する。
論文 参考訳(メタデータ) (2021-03-22T14:18:39Z) - GA-MSSR: Genetic Algorithm Maximizing Sharpe and Sterling Ratio Method
for RoboTrading [0.4568777157687961]
外国為替は世界最大の金融市場である。
ほとんどの文献は、歴史的価格情報と技術指標を訓練に用いた。
この問題に対処するため,我々は,技術指標と取引規則から派生した取引規則の特徴を設計した。
論文 参考訳(メタデータ) (2020-08-16T05:33:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。