論文の概要: Navigating the Alpha Jungle: An LLM-Powered MCTS Framework for Formulaic Factor Mining
- arxiv url: http://arxiv.org/abs/2505.11122v1
- Date: Fri, 16 May 2025 11:14:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-19 14:36:14.778205
- Title: Navigating the Alpha Jungle: An LLM-Powered MCTS Framework for Formulaic Factor Mining
- Title(参考訳): アルファジャングルのナビゲーション: フォーミュラファクターマイニングのためのLCM駆動MCTSフレームワーク
- Authors: Yu Shi, Yitong Duan, Jian Li,
- Abstract要約: 本稿では,大規模言語モデル (LLM) とモンテカルロ木探索 (MCTS) を統合する新しいフレームワークを提案する。
重要な革新は、MCTS探究のガイダンスであり、各候補因子の金銭的バックテストから、豊かで定量的なフィードバックによってである。
実世界の株式市場データを用いた実験結果から, LLMをベースとしたフレームワークは, 予測精度, 取引性能, 解釈性の向上とともに, より効率的なアルファマイニングソリューションを提供することにより, 既存の手法よりも優れた性能を示すことが示された。
- 参考スコア(独自算出の注目度): 8.53606484300001
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Alpha factor mining is pivotal in quantitative investment for identifying predictive signals from complex financial data. While traditional formulaic alpha mining relies on human expertise, contemporary automated methods, such as those based on genetic programming or reinforcement learning, often suffer from search inefficiency or yield poorly interpretable alpha factors. This paper introduces a novel framework that integrates Large Language Models (LLMs) with Monte Carlo Tree Search (MCTS) to overcome these limitations. Our approach leverages the LLM's instruction-following and reasoning capability to iteratively generate and refine symbolic alpha formulas within an MCTS-driven exploration. A key innovation is the guidance of MCTS exploration by rich, quantitative feedback from financial backtesting of each candidate factor, enabling efficient navigation of the vast search space. Furthermore, a frequent subtree avoidance mechanism is introduced to bolster search efficiency and alpha factor performance. Experimental results on real-world stock market data demonstrate that our LLM-based framework outperforms existing methods by mining alphas with superior predictive accuracy, trading performance, and improved interpretability, while offering a more efficient solution for formulaic alpha mining.
- Abstract(参考訳): アルファファクターマイニングは、複雑な財務データから予測信号を特定するための定量的投資において重要である。
従来の定式的アルファマイニングは人間の専門知識に頼っているが、遺伝的プログラミングや強化学習に基づく現代の自動化手法は、しばしば探索の非効率さに悩まされるか、解釈可能なアルファファクターが不十分である。
本稿では,これらの制約を克服するために,大規模言語モデル(LLM)とモンテカルロ木探索(MCTS)を統合する新しいフレームワークを提案する。
提案手法は, LLMの命令追従と推論能力を利用して, MCTSによる探索において, 記号的アルファ式を反復的に生成・洗練する。
重要な革新はMCTS探索のガイダンスであり、各候補因子の金銭的バックテストからの豊富な定量的フィードバックにより、広大な探索空間の効率的なナビゲーションを可能にしている。
さらに、探索効率とアルファ因子性能を高めるために、頻繁なサブツリー回避機構を導入する。
実世界の株式市場データによる実験結果から, LLMをベースとしたフレームワークは, 予測精度, 取引性能, 解釈性の向上などにより, 従来手法よりも優れた性能を示しつつ, より効率的なアルファマイニングソリューションを提供する。
関連論文リスト
- R1-Searcher: Incentivizing the Search Capability in LLMs via Reinforcement Learning [87.30285670315334]
textbfR1-Searcherは、大規模言語モデルの検索能力を高めるために設計された、2段階の結果に基づく新しいRLアプローチである。
本フレームワークは, コールドスタート時に, プロセス報酬や蒸留を必要とせず, RLのみに依存している。
提案手法は, クローズドソースGPT-4o-miniと比較して, 従来の強力なRAG法よりも有意に優れていた。
論文 参考訳(メタデータ) (2025-03-07T17:14:44Z) - EVOLvE: Evaluating and Optimizing LLMs For Exploration [76.66831821738927]
大規模言語モデル(LLM)は、不確実性の下で最適な意思決定を必要とするシナリオにおいて、未調査のままである。
多くのアプリケーションに関係のあるステートレス強化学習環境である,帯域幅を最適に決定できる LLM の (in) 能力の測定を行う。
最適な探索アルゴリズムの存在を動機として,このアルゴリズム知識をLLMに統合する効率的な方法を提案する。
論文 参考訳(メタデータ) (2024-10-08T17:54:03Z) - QuantFactor REINFORCE: Mining Steady Formulaic Alpha Factors with Variance-bounded REINFORCE [5.560011325936085]
アルファ・ファクター・マイニングの目標は、資産の歴史的金融市場データから投資機会の示唆的なシグナルを発見することである。
近年, 深層強化学習を用いた定式化α因子の生成に期待できる枠組みが提案されている。
論文 参考訳(メタデータ) (2024-09-08T15:57:58Z) - FactorLLM: Factorizing Knowledge via Mixture of Experts for Large Language Models [50.331708897857574]
本稿では,高度に訓練された高密度FFNを余分なサブネットワークに分解する新しいアプローチであるFacterLLMを紹介する。
FactorLLMは、最大85%のモデル性能を確保しながら、推論速度を30%以上増加させながら、ソースモデルに匹敵するパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-08-15T16:45:16Z) - AlphaForge: A Framework to Mine and Dynamically Combine Formulaic Alpha Factors [14.80394452270726]
本稿では,アルファ因子マイニングと因子組み合わせのための2段階のアルファ生成フレームワークAlphaForgeを提案する。
実世界のデータセットを用いて行った実験により,我々の提案したモデルは,定式的アルファファクターマイニングにおいて,同時代のベンチマークより優れていることが示された。
論文 参考訳(メタデータ) (2024-06-26T14:34:37Z) - Accessing GPT-4 level Mathematical Olympiad Solutions via Monte Carlo Tree Self-refine with LLaMa-3 8B [48.45472563225202]
本稿では,大規模言語モデル (LLM) とモンテカルロ木探索 (MCTS) を革新的に統合した MCT Self-Refine (MCTSr) アルゴリズムを提案する。
このアルゴリズムは、セレクション、自己定義、自己評価、バックプロパゲーションの反復的なプロセスを通じてモンテカルロ探索木を構築する。
大規模な実験は、オリンピアードレベルの数学問題の解法におけるMCTSrの有効性を示す。
論文 参考訳(メタデータ) (2024-06-11T16:01:07Z) - Synergistic Formulaic Alpha Generation for Quantitative Trading based on Reinforcement Learning [1.3194391758295114]
本稿では,既存のアルファファクタマイニング手法を探索空間を拡張して拡張する手法を提案する。
モデルの性能評価指標として,情報係数 (IC) とランク情報係数 (Rank IC) を用いる。
論文 参考訳(メタデータ) (2024-01-05T08:49:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。