論文の概要: QuantaAlpha: An Evolutionary Framework for LLM-Driven Alpha Mining
- arxiv url: http://arxiv.org/abs/2602.07085v1
- Date: Fri, 06 Feb 2026 08:08:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.43569
- Title: QuantaAlpha: An Evolutionary Framework for LLM-Driven Alpha Mining
- Title(参考訳): QuantaAlpha: LLM駆動アルファマイニングのための進化的フレームワーク
- Authors: Jun Han, Shuo Zhang, Wei Li, Zhi Yang, Yifan Dong, Tu Hu, Jialuo Yuan, Xiaomin Yu, Yumo Zhu, Fangqi Lou, Xin Guo, Zhaowei Liu, Tianyi Jiang, Ruichuan An, Jingping Liu, Biao Wu, Rongze Chen, Kunyi Wang, Yifan Wang, Sen Hu, Xinbing Kong, Liwen Zhang, Ronghao Chen, Huacan Wang,
- Abstract要約: QuantaAlphaは進化的アルファ・マイニング・フレームワークであり、各エンド・ツー・エンドのマイニング・ランを軌跡として扱う。
QuantaAlphaは、ターゲットリビジョンのための各トラジェクトリにおける最適以下のステップをローカライズする。
ファクタ生成の間、QuantaAlphaは仮説、因子表現、実行可能コードのセマンティック一貫性を強制する。
- 参考スコア(独自算出の注目度): 24.756255119539347
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Financial markets are noisy and non-stationary, making alpha mining highly sensitive to noise in backtesting results and sudden market regime shifts. While recent agentic frameworks improve alpha mining automation, they often lack controllable multi-round search and reliable reuse of validated experience. To address these challenges, we propose QuantaAlpha, an evolutionary alpha mining framework that treats each end-to-end mining run as a trajectory and improves factors through trajectory-level mutation and crossover operations. QuantaAlpha localizes suboptimal steps in each trajectory for targeted revision and recombines complementary high-reward segments to reuse effective patterns, enabling structured exploration and refinement across mining iterations. During factor generation, QuantaAlpha enforces semantic consistency across the hypothesis, factor expression, and executable code, while constraining the complexity and redundancy of the generated factor to mitigate crowding. Extensive experiments on the China Securities Index 300 (CSI 300) demonstrate consistent gains over strong baseline models and prior agentic systems. When utilizing GPT-5.2, QuantaAlpha achieves an Information Coefficient (IC) of 0.1501, with an Annualized Rate of Return (ARR) of 27.75% and a Maximum Drawdown (MDD) of 7.98%. Moreover, factors mined on CSI 300 transfer effectively to the China Securities Index 500 (CSI 500) and the Standard & Poor's 500 Index (S&P 500), delivering 160% and 137% cumulative excess return over four years, respectively, which indicates strong robustness of QuantaAlpha under market distribution shifts.
- Abstract(参考訳): 金融市場は騒々しく、非定常的であり、バックテストの結果のノイズに非常に敏感なアルファマイニングと、突然の市場体制の変化をもたらす。
最近のエージェント・フレームワークはアルファ・マイニングの自動化を改善しているが、制御可能なマルチラウンド・サーチと信頼性の高い検証済み体験の再利用が欠如していることが多い。
これらの課題に対処するため、我々は、各エンド・ツー・エンドのマイニングランを軌跡として扱う進化的アルファマイニングフレームワークQuantaAlphaを提案し、トラジェクトリレベルの突然変異とクロスオーバー操作によって要因を改善する。
QuantaAlphaは、目標とするリビジョンのための各トラジェクトリの最適部分ステップをローカライズし、補完的なハイリワードセグメントを再結合して効果的なパターンを再利用し、マイニングイテレーションをまたいだ構造化された探索と精錬を可能にする。
ファクタ生成の間、QuantaAlphaは仮説、因子表現、実行可能コード間のセマンティック一貫性を強制し、生成されたファクタの複雑さと冗長性を制約して、混雑を緩和する。
中国証券指数300(CSI 300)に関する大規模な実験は、強力なベースラインモデルや先行のエージェントシステムよりも一貫した利得を示している。
GPT-5.2 を利用する場合、QuantaAlpha は情報係数 0.1501 であり、ARR は 27.75%、MDD は 7.98% である。
さらに、中国証券指数500(CSI500)とスタンダード・アンド・プアーズ500(S&P500)へのCSI300の移転を効果的に行い、4年間で累積過剰リターンの160%と137%を計上した。
関連論文リスト
- Alpha-R1: Alpha Screening with LLM Reasoning via Reinforcement Learning [28.326583684637853]
信号の崩壊と政権交代は、非定常市場におけるデータ駆動型投資戦略に繰り返し挑戦する。
既存の因子ベースの手法は、アルファを数値時系列に還元し、ある因子が経済的に関係しているかどうかを決定する意味論的論理を見渡すのが一般的である。
文脈認識型アルファスクリーニングのための強化学習により訓練された8Bパラメータ推論モデルであるAlpha-R1を提案する。
論文 参考訳(メタデータ) (2025-12-29T14:50:23Z) - Eigen-1: Adaptive Multi-Agent Refinement with Monitor-Based RAG for Scientific Reasoning [53.45095336430027]
暗黙的な検索と構造化された協調を組み合わせた統合フレームワークを開発する。
Humanity's Last Exam (HLE) Bio/Chem Goldでは,48.3%の精度を実現している。
SuperGPQAとTRQAの結果はドメイン間の堅牢性を確認した。
論文 参考訳(メタデータ) (2025-09-25T14:05:55Z) - AlphaEvolve: A coding agent for scientific and algorithmic discovery [63.13852052551106]
我々は,最先端LLMの能力を大幅に向上させる進化的符号化エージェントAlphaEvolveを提案する。
AlphaEvolveはLLMの自律パイプラインを編成し、そのタスクはコードを直接変更することでアルゴリズムを改善することである。
本稿では,多くの重要な計算問題に適用することで,このアプローチの広範な適用性を実証する。
論文 参考訳(メタデータ) (2025-06-16T06:37:18Z) - Navigating the Alpha Jungle: An LLM-Powered MCTS Framework for Formulaic Factor Mining [8.53606484300001]
本稿では,大規模言語モデル (LLM) とモンテカルロ木探索 (MCTS) を統合する新しいフレームワークを提案する。
重要な革新は、MCTS探究のガイダンスであり、各候補因子の金銭的バックテストから、豊かで定量的なフィードバックによってである。
実世界の株式市場データによる実験結果から, LLMをベースとしたフレームワークは, 予測精度と取引性能に優れたアルファをマイニングすることにより, 既存手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2025-05-16T11:14:17Z) - AlphaAgent: LLM-Driven Alpha Mining with Regularized Exploration to Counteract Alpha Decay [43.50447460231601]
我々は,大規模言語モデルとアドホック正規化を統合し,崩壊耐性アルファ因子をマイニングする自律的フレームワークであるAlphaAgentを提案する。
AlphaAgentは、中国CSI 500と米国S&P 500市場で、過去4年間で引き続き重要なアルファ版を提供している。
特にAlphaAgentは、アルファ崩壊に対する顕著な抵抗を示し、強力な要因をもたらす可能性を高めている。
論文 参考訳(メタデータ) (2025-02-24T02:56:46Z) - QuantFactor REINFORCE: Mining Steady Formulaic Alpha Factors with Variance-bounded REINFORCE [5.560011325936085]
アルファファクターマイニングのための強力なディープラーニング手法は解釈可能性に欠けており、リスクに敏感な現実市場では受け入れられない。
形式的アルファ因子はその解釈可能性に好まれる一方、探索空間は複雑であり、強力な爆発的手法が求められている。
近年, 深層強化学習を用いたα因子生成のためのフレームワークが提案されている。
論文 参考訳(メタデータ) (2024-09-08T15:57:58Z) - DS-Agent: Automated Data Science by Empowering Large Language Models with Case-Based Reasoning [56.887047551101574]
大規模言語モデル(LLM)エージェントとケースベース推論(CBR)を利用した新しいフレームワークであるDS-Agentを提案する。
開発段階では、DS-AgentはCBRフレームワークに従い、自動イテレーションパイプラインを構築する。
デプロイメントの段階では、DS-Agentは、シンプルなCBRパラダイムで低リソースのデプロイメントステージを実装し、LCMの基本能力に対する需要を大幅に削減する。
論文 参考訳(メタデータ) (2024-02-27T12:26:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。