論文の概要: Synergistic Formulaic Alpha Generation for Quantitative Trading based on Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2401.02710v2
- Date: Mon, 8 Jul 2024 02:59:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-10 02:58:36.804183
- Title: Synergistic Formulaic Alpha Generation for Quantitative Trading based on Reinforcement Learning
- Title(参考訳): 強化学習に基づく量的トレーディングのための相乗的公式アルファ生成
- Authors: Hong-Gi Shin, Sukhyun Jeong, Eui-Yeon Kim, Sungho Hong, Young-Jin Cho, Yong-Hoon Choi,
- Abstract要約: 本稿では,既存のアルファファクタマイニング手法を探索空間を拡張して拡張する手法を提案する。
モデルの性能評価指標として,情報係数 (IC) とランク情報係数 (Rank IC) を用いる。
- 参考スコア(独自算出の注目度): 1.3194391758295114
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mining of formulaic alpha factors refers to the process of discovering and developing specific factors or indicators (referred to as alpha factors) for quantitative trading in stock market. To efficiently discover alpha factors in vast search space, reinforcement learning (RL) is commonly employed. This paper proposes a method to enhance existing alpha factor mining approaches by expanding a search space and utilizing pretrained formulaic alpha set as initial seed values to generate synergistic formulaic alpha. We employ information coefficient (IC) and rank information coefficient (Rank IC) as performance evaluation metrics for the model. Using CSI300 market data, we conducted real investment simulations and observed significant performance improvement compared to existing techniques.
- Abstract(参考訳): 定式的アルファ因子のマイニング(英: Mining of formulaic Alpha factor)とは、株式市場における定量取引のための特定の因子や指標(アルファ因子と呼ばれる)を発見し、開発する過程を指す。
広い探索空間におけるアルファ因子を効率的に発見するために、強化学習(RL)が一般的である。
本稿では,探索空間を拡大し,事前学習した定式アルファセットを初期シード値として利用して,相乗的な定式アルファを生成することにより,既存のアルファファクターマイニング手法を強化する手法を提案する。
モデルの性能評価指標として,情報係数 (IC) とランク情報係数 (Rank IC) を用いる。
CSI300の市場データを用いて、実投資シミュレーションを行い、既存技術と比較して大幅な性能向上を観察した。
関連論文リスト
- QuantFactor REINFORCE: Mining Steady Formulaic Alpha Factors with Variance-bounded REINFORCE [5.560011325936085]
アルファ・ファクター・マイニングの目標は、資産の歴史的金融市場データから投資機会の示唆的なシグナルを発見することである。
近年, 深層強化学習を用いた定式化α因子の生成に期待できる枠組みが提案されている。
論文 参考訳(メタデータ) (2024-09-08T15:57:58Z) - AlphaForge: A Framework to Mine and Dynamically Combine Formulaic Alpha Factors [14.80394452270726]
本稿では,アルファ因子マイニングと因子組み合わせのための2段階のアルファ生成フレームワークAlphaForgeを提案する。
実世界のデータセットを用いて行った実験により,我々の提案したモデルは,定式的アルファファクターマイニングにおいて,同時代のベンチマークより優れていることが示された。
論文 参考訳(メタデータ) (2024-06-26T14:34:37Z) - $\text{Alpha}^2$: Discovering Logical Formulaic Alphas using Deep Reinforcement Learning [28.491587815128575]
深部強化学習(DRL)を用いたアルファ発見のための新しい枠組みを提案する。
DRLでガイドされた探索アルゴリズムは、潜在的なアルファ結果の値推定に基づいて探索空間をナビゲートする。
実世界の株式市場での実証実験は、さまざまな論理的かつ効果的なアルファを識別するtextAlpha2$の能力を実証している。
論文 参考訳(メタデータ) (2024-06-24T10:21:29Z) - Monte Carlo Tree Search Boosts Reasoning via Iterative Preference Learning [55.96599486604344]
本稿では,Large Language Models (LLMs) の推論能力向上を目的とした,反復的な選好学習プロセスによるアプローチを提案する。
我々は、MCTS(Monte Carlo Tree Search)を用いて好みデータを反復的に収集し、そのルックアヘッド機能を利用して、インスタンスレベルの報酬をよりきめ細かいステップレベルの信号に分解する。
提案アルゴリズムはDPO(Direct Preference Optimization)を用いて,新たに生成されたステップレベルの優先度データを用いてLCMポリシーを更新する。
論文 参考訳(メタデータ) (2024-05-01T11:10:24Z) - Prospector Heads: Generalized Feature Attribution for Large Models & Data [82.02696069543454]
本稿では,説明に基づく帰属手法の効率的かつ解釈可能な代替手段であるプロスペクタヘッドを紹介する。
入力データにおけるクラス固有のパターンの解釈と発見を、プロファイラヘッドがいかに改善できるかを実証する。
論文 参考訳(メタデータ) (2024-02-18T23:01:28Z) - ExaRanker-Open: Synthetic Explanation for IR using Open-Source LLMs [60.81649785463651]
ExaRanker-Openを導入し、オープンソース言語モデルを適用して、説明を生成する。
以上の結果から,LLMのサイズが大きくなるにつれて,説明の組み込みが神経ランク付けを継続的に促進することが明らかとなった。
論文 参考訳(メタデータ) (2024-02-09T11:23:14Z) - Data-Centric Long-Tailed Image Recognition [49.90107582624604]
ロングテールモデルは高品質なデータに対する強い需要を示している。
データ中心のアプローチは、モデルパフォーマンスを改善するために、データの量と品質の両方を強化することを目的としています。
現在、情報強化の有効性を説明するメカニズムに関する研究が不足している。
論文 参考訳(メタデータ) (2023-11-03T06:34:37Z) - Alpha-GPT: Human-AI Interactive Alpha Mining for Quantitative Investment [9.424699345940725]
我々は,人間とAIの相互作用を導入し,新たなアルファマイニングパラダイムを提案する。
また,新たな対話型アルファマイニングシステムであるAlpha-GPTを開発した。
論文 参考訳(メタデータ) (2023-07-31T16:40:06Z) - Secrets of RLHF in Large Language Models Part I: PPO [81.01936993929127]
大規模言語モデル (LLMs) は、人工知能の進歩のためのブループリントを定式化した。
人間のフィードバックによる強化学習(RLHF)がこの追求を支える重要な技術パラダイムとして出現する。
本稿では、RLHFの枠組みを解明し、PPOの内部構造を再評価し、PPOアルゴリズムを構成する部分が政策エージェントの訓練にどのように影響するかを考察する。
論文 参考訳(メタデータ) (2023-07-11T01:55:24Z) - Generating Synergistic Formulaic Alpha Collections via Reinforcement
Learning [20.589583396095225]
我々は、相乗的なアルファの集合のマイニングを優先する新しいアルファマイニングフレームワークを提案する。
我々のフレームワークは、これまでのアプローチよりも高いリターンを達成することができることを示す。
論文 参考訳(メタデータ) (2023-05-25T13:41:07Z) - Alchemy: A structured task distribution for meta-reinforcement learning [52.75769317355963]
本稿では,構造的リッチネスと構造的透明性を組み合わせたメタRL研究のための新しいベンチマークを提案する。
Alchemyは3Dビデオゲームで、エピソードからエピソードまで手続き的に再サンプリングされる潜伏した因果構造を含んでいる。
本稿では,アルケミーの強力なRL剤について検討し,その1つについて詳細な分析を行った。
論文 参考訳(メタデータ) (2021-02-04T23:40:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。