論文の概要: Alpha-R1: Alpha Screening with LLM Reasoning via Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2512.23515v1
- Date: Mon, 29 Dec 2025 14:50:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:30.547553
- Title: Alpha-R1: Alpha Screening with LLM Reasoning via Reinforcement Learning
- Title(参考訳): Alpha-R1:強化学習によるLLM推論によるアルファスクリーニング
- Authors: Zuoyou Jiang, Li Zhao, Rui Sun, Ruohan Sun, Zhongjian Li, Jing Li, Daxin Jiang, Zuo Bai, Cheng Hua,
- Abstract要約: 信号の崩壊と政権交代は、非定常市場におけるデータ駆動型投資戦略に繰り返し挑戦する。
既存の因子ベースの手法は、アルファを数値時系列に還元し、ある因子が経済的に関係しているかどうかを決定する意味論的論理を見渡すのが一般的である。
文脈認識型アルファスクリーニングのための強化学習により訓練された8Bパラメータ推論モデルであるAlpha-R1を提案する。
- 参考スコア(独自算出の注目度): 28.326583684637853
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Signal decay and regime shifts pose recurring challenges for data-driven investment strategies in non-stationary markets. Conventional time-series and machine learning approaches, which rely primarily on historical correlations, often struggle to generalize when the economic environment changes. While large language models (LLMs) offer strong capabilities for processing unstructured information, their potential to support quantitative factor screening through explicit economic reasoning remains underexplored. Existing factor-based methods typically reduce alphas to numerical time series, overlooking the semantic rationale that determines when a factor is economically relevant. We propose Alpha-R1, an 8B-parameter reasoning model trained via reinforcement learning for context-aware alpha screening. Alpha-R1 reasons over factor logic and real-time news to evaluate alpha relevance under changing market conditions, selectively activating or deactivating factors based on contextual consistency. Empirical results across multiple asset pools show that Alpha-R1 consistently outperforms benchmark strategies and exhibits improved robustness to alpha decay. The full implementation and resources are available at https://github.com/FinStep-AI/Alpha-R1.
- Abstract(参考訳): 信号の崩壊と政権交代は、非定常市場におけるデータ駆動型投資戦略に繰り返し挑戦する。
伝統的時系列と機械学習のアプローチは、主に歴史的相関に頼っているが、経済環境が変化すると一般化に苦慮することが多い。
大規模言語モデル(LLM)は、構造化されていない情報を処理する強力な能力を提供するが、明示的な経済的推論を通じて定量的因子スクリーニングをサポートする可能性はまだ未定である。
既存の因子ベースの手法は、アルファを数値時系列に還元し、ある因子が経済的に関係しているかどうかを決定する意味論的論理を見渡すのが一般的である。
文脈認識型アルファスクリーニングのための強化学習により訓練された8Bパラメータ推論モデルであるAlpha-R1を提案する。
α-R1は、市場条件の変化によるアルファ関連性を評価するために、要因論理とリアルタイムニュースを優先し、文脈整合性に基づいた要因を選択的に活性化または非活性化する。
複数のアセットプールにまたがる実験の結果、Alpha-R1はベンチマーク戦略を一貫して上回り、アルファ崩壊に対する堅牢性の向上を示す。
完全な実装とリソースはhttps://github.com/FinStep-AI/Alpha-R1.comで入手できる。
関連論文リスト
- How and Why LLMs Generalize: A Fine-Grained Analysis of LLM Reasoning from Cognitive Behaviors to Low-Level Patterns [51.02752099869218]
大きな言語モデル(LLM)は、非常に異なる一般化の振る舞いを示す。
推論を原子核スキルに分解する新しいベンチマークを導入する。
SFTモデルはよりシャープなドリフトと表面パターンへの過度な適合を示すのに対し、RL型モデルはより安定した行動プロファイルを維持し、推論スキルの崩壊に抵抗することを示す。
論文 参考訳(メタデータ) (2025-12-30T08:16:20Z) - Making Mathematical Reasoning Adaptive [61.45161826629692]
大規模言語モデル(LLM)における適応推論を実現するためのAdaRフレームワークを提案する。
AdaRは可変値によって論理的に等価なクエリを合成し、これらのデータに基づいてRLVRでモデルを訓練し、スプリアス論理をペナルライズする。
実験により, AdaRはロバスト性や一般化を向上し, 数学的推論の大幅な改善を実現していることが示された。
論文 参考訳(メタデータ) (2025-10-06T09:30:05Z) - AlphaEval: A Comprehensive and Efficient Evaluation Framework for Formula Alpha Mining [6.167227740097627]
金融データから予測信号を生成するフォーミュラアルファマイニングは、量的投資に不可欠である。
既存の評価指標には、主にバックテストと相関ベースの測定が含まれている。
自動アルファマイニングモデルのための統一的で並列化可能なバックテストフリー評価フレームワークであるAlphaEvalを提案する。
論文 参考訳(メタデータ) (2025-08-10T11:19:24Z) - Scaling Up RL: Unlocking Diverse Reasoning in LLMs via Prolonged Training [121.5858973157225]
本研究では,長期強化学習が多種多様な推論領域にまたがる小言語モデルに及ぼす影響について検討する。
我々は,長期的パフォーマンス向上の鍵となる重要な要素として,制御KL正規化,クリッピング率,定期参照ポリシーリセットを導入する。
私たちのモデルは、数学の+14.7%、コーディングの+13.9%、論理パズルの+54.8%など、強力なベースラインよりも大幅に改善されている。
論文 参考訳(メタデータ) (2025-07-16T17:59:24Z) - SwS: Self-aware Weakness-driven Problem Synthesis in Reinforcement Learning for LLM Reasoning [95.28059121743831]
RLVR(Reinforcement Learning with Verifiable Rewards)は、複雑な推論タスクにおいて、大規模言語モデル(LLM)のトレーニングに有効であることが証明されている。
本稿では、モデル欠陥を体系的に識別し、それらを問題解決に活用する自己認識弱さ駆動型問題合成フレームワーク(SwS)を提案する。
SwSはモデルを自己識別し、RLの弱点に対処することで堅牢な一般化を可能にし、7Bモデルと32Bモデルで平均パフォーマンスが10.0%と7.7%向上した。
論文 参考訳(メタデータ) (2025-06-10T17:02:00Z) - Trust, But Verify: A Self-Verification Approach to Reinforcement Learning with Verifiable Rewards [67.86091419220816]
大規模言語モデル(LLM)は複雑な推論において非常に有望である。
一般的な問題は表面的な自己回帰であり、モデルが自身の出力をしっかりと検証できない。
本稿では、RISE(Reinforce Reasoning with Self-Verification)という新しいオンラインRLフレームワークについて紹介する。
論文 参考訳(メタデータ) (2025-05-19T17:59:31Z) - AlphaAgent: LLM-Driven Alpha Mining with Regularized Exploration to Counteract Alpha Decay [43.50447460231601]
我々は,大規模言語モデルとアドホック正規化を統合し,崩壊耐性アルファ因子をマイニングする自律的フレームワークであるAlphaAgentを提案する。
AlphaAgentは、中国CSI 500と米国S&P 500市場で、過去4年間で引き続き重要なアルファ版を提供している。
特にAlphaAgentは、アルファ崩壊に対する顕著な抵抗を示し、強力な要因をもたらす可能性を高めている。
論文 参考訳(メタデータ) (2025-02-24T02:56:46Z) - QuantFactor REINFORCE: Mining Steady Formulaic Alpha Factors with Variance-bounded REINFORCE [5.560011325936085]
アルファファクターマイニングのための強力なディープラーニング手法は解釈可能性に欠けており、リスクに敏感な現実市場では受け入れられない。
形式的アルファ因子はその解釈可能性に好まれる一方、探索空間は複雑であり、強力な爆発的手法が求められている。
近年, 深層強化学習を用いたα因子生成のためのフレームワークが提案されている。
論文 参考訳(メタデータ) (2024-09-08T15:57:58Z) - AlphaForge: A Framework to Mine and Dynamically Combine Formulaic Alpha Factors [14.80394452270726]
本稿では,アルファ因子マイニングと因子組み合わせのための2段階のアルファ生成フレームワークAlphaForgeを提案する。
実世界のデータセットを用いて行った実験により,我々の提案したモデルは,定式的アルファファクターマイニングにおいて,同時代のベンチマークより優れていることが示された。
論文 参考訳(メタデータ) (2024-06-26T14:34:37Z) - Synergistic Formulaic Alpha Generation for Quantitative Trading based on Reinforcement Learning [1.3194391758295114]
本稿では,既存のアルファファクタマイニング手法を探索空間を拡張して拡張する手法を提案する。
モデルの性能評価指標として,情報係数 (IC) とランク情報係数 (Rank IC) を用いる。
論文 参考訳(メタデータ) (2024-01-05T08:49:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。