論文の概要: FactorEngine: A Program-level Knowledge-Infused Factor Mining Framework for Quantitative Investment
- arxiv url: http://arxiv.org/abs/2603.16365v1
- Date: Tue, 17 Mar 2026 10:51:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:07.229534
- Title: FactorEngine: A Program-level Knowledge-Infused Factor Mining Framework for Quantitative Investment
- Title(参考訳): FactorEngine: 定量的投資のためのプログラムレベルの知識注入型ファクタマイニングフレームワーク
- Authors: Qinhong Lin, Ruitao Feng, Yinglun Feng, Zhenxin Huang, Yukun Chen, Zhongliang Yang, Linna Zhou, Binjie Fei, Jiaqi Liu, Yu Li,
- Abstract要約: FactorEngine(FE)は、Turing完全コードとしてファクタをキャストする。
FEは、構造化されていない財務報告を実行可能なファクタープログラムに変換する。
FEは、予測安定性とポートフォリオへの影響が著しく強い要因を生み出します。
- 参考スコア(独自算出の注目度): 22.43322983799291
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study alpha factor mining, the automated discovery of predictive signals from noisy, non-stationary market data-under a practical requirement that mined factors be directly executable and auditable, and that the discovery process remain computationally tractable at scale. Existing symbolic approaches are limited by bounded expressiveness, while neural forecasters often trade interpretability for performance and remain vulnerable to regime shifts and overfitting. We introduce FactorEngine (FE), a program-level factor discovery framework that casts factors as Turing-complete code and improves both effectiveness and efficiency via three separations: (i) logic revision vs. parameter optimization, (ii) LLM-guided directional search vs. Bayesian hyperparameter search, and (iii) LLM usage vs. local computation. FE further incorporates a knowledge-infused bootstrapping module that transforms unstructured financial reports into executable factor programs through a closed-loop multi-agent extraction-verification-code-generation pipeline, and an experience knowledge base that supports trajectory-aware refinement (including learning from failures). Across extensive backtests on real-world OHLCV data, FE produces factors with substantially stronger predictive stability and portfolio impact-for example, higher IC/ICIR (and Rank IC/ICIR) and improved AR/Sharpe, than baseline methods, achieving state-of-the-art predictive and portfolio performance.
- Abstract(参考訳): 我々は,アルファ因子マイニング(α因子マイニング),ノイズの多い非定常市場データからの予測信号の自動発見について検討した。
既存の記号的アプローチは有界表現性によって制限されるが、ニューラルな予測者はしばしば性能のために解釈可能性と交換し、体制シフトや過度な適合に弱いままである。
FactorEngine(FE)は、チューリング完全コードとして要素をキャストし、3つの分離によって効率と効率を改善するプログラムレベルの因子発見フレームワークである。
(i) 論理リビジョンとパラメータ最適化
(II)LLM誘導方向探索とベイズ型ハイパーパラメータ探索
(iii) LLM の使用法と局所計算法
FEはさらに、構造化されていない財務報告を、クローズドループのマルチエージェント抽出検証コード生成パイプラインを通じて実行可能なファクタプログラムに変換する知識注入型ブートストラップモジュールと、軌道認識の洗練(障害からの学習を含む)をサポートする経験知識ベースも組み込んでいる。
実世界のOHLCVデータに対する広範なバックテストを通じて、FEは、予測安定性とポートフォリオ影響が著しく強い要因を生成する。例えば、IC/ICIR(およびRランクIC/ICIR)が向上し、ベースラインメソッドよりもAR/Sharpeが改善され、最先端の予測とポートフォリオのパフォーマンスが達成された。
関連論文リスト
- Fault Cause Identification across Manufacturing Lines through Ontology-Guided and Process-Aware FMEA Graph Learning with LLMs [1.9563024477582351]
本研究では,製造領域の概念化とグラフニューラルネットワーク(GNN)推論を組み合わせることにより,FMEA再利用性を高めるプロセス認識フレームワークを提案する。
自動車用圧力センサ組立ラインのケーススタディでは,提案手法が最先端の検索強化生成(RAG)ベースラインより優れていることが示された。
論文 参考訳(メタデータ) (2025-10-17T08:35:47Z) - Agentic Reinforced Policy Optimization [66.96989268893932]
検証可能な報酬付き大規模強化学習(RLVR)は,大規模言語モデル(LLM)を単一ターン推論タスクに活用する効果を実証している。
現在のRLアルゴリズムは、モデル固有のロングホライゾン推論能力と、マルチターンツールインタラクションにおけるその習熟性のバランスが不十分である。
エージェント強化ポリシー最適化(ARPO: Agentic Reinforced Policy Optimization)は,マルチターンLDMエージェントを学習するためのエージェントRLアルゴリズムである。
論文 参考訳(メタデータ) (2025-07-26T07:53:11Z) - Feature Engineering for Agents: An Adaptive Cognitive Architecture for Interpretable ML Monitoring [2.1205272468688574]
大規模言語モデルに基づくエージェントに特徴工学の原則を適用したMLモニタリングのための認知アーキテクチャを提案する。
決定手順モジュールは、リファクタリング、ブレークダウン、コンパイルという3つの重要なステップを通じて、機能エンジニアリングをシミュレートする。
複数のLCMを用いた実験により, 各種ベースラインと比較して精度が有意に向上し, 提案手法の有効性が示された。
論文 参考訳(メタデータ) (2025-06-11T13:48:25Z) - SIFBench: An Extensive Benchmark for Fatigue Analysis [20.941908494137806]
機械学習はストレス強度因子(SIF)の予測に大きな可能性を示している
SIFBenchはMLベースのSIF予測をサポートするために設計されたオープンソースの大規模ベンチマークデータベースである。
SIFBenchは、500万以上の異なるクラックと、高忠実度有限要素シミュレーションから派生したコンポーネントジオメトリを含んでいる。
論文 参考訳(メタデータ) (2025-06-01T21:13:26Z) - DSMoE: Matrix-Partitioned Experts with Dynamic Routing for Computation-Efficient Dense LLMs [86.76714527437383]
本稿では,事前学習したFFN層を計算ブロックに分割することで,分散化を実現するDSMoEを提案する。
我々は,Sigmoid アクティベーションとストレートスルー推定器を用いた適応型エキスパートルーティングを実装し,トークンがモデル知識の様々な側面に柔軟にアクセスできるようにする。
LLaMAモデルを用いた実験により、DSMoEは既存のプルーニング法やMoE法に比べて優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2025-02-18T02:37:26Z) - Confident or Seek Stronger: Exploring Uncertainty-Based On-device LLM Routing From Benchmarking to Generalization [61.02719787737867]
大規模言語モデル(LLM)はますますエッジデバイスにデプロイされ、民主化されている。
1つの有望な解決策は不確実性に基づくSLMルーティングであり、SLM上での低信頼応答が発生すると、高い要求を強いLCMにオフロードする。
我々は1500以上の設定でSLMからLLMへの不確実性駆動型ルーティング戦略のベンチマークと一般化を包括的に調査する。
論文 参考訳(メタデータ) (2025-02-06T18:59:11Z) - FactorLLM: Factorizing Knowledge via Mixture of Experts for Large Language Models [50.331708897857574]
本稿では,高度に訓練された高密度FFNを余分なサブネットワークに分解する新しいアプローチであるFacterLLMを紹介する。
FactorLLMは、最大85%のモデル性能を確保しながら、推論速度を30%以上増加させながら、ソースモデルに匹敵するパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-08-15T16:45:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。