論文の概要: AlphaAgent: LLM-Driven Alpha Mining with Regularized Exploration to Counteract Alpha Decay
- arxiv url: http://arxiv.org/abs/2502.16789v1
- Date: Mon, 24 Feb 2025 02:56:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-25 15:52:52.634340
- Title: AlphaAgent: LLM-Driven Alpha Mining with Regularized Exploration to Counteract Alpha Decay
- Title(参考訳): AlphaAgent: LLM駆動のアルファマイニング
- Authors: Ziyi Tang, Zechuan Chen, Jiarui Yang, Jiayao Mai, Yongsen Zheng, Keze Wang, Jinrui Chen, Liang Lin,
- Abstract要約: 我々は,大規模言語モデルとアドホック正規化を統合し,崩壊耐性アルファ因子をマイニングする自律的フレームワークであるAlphaAgentを提案する。
AlphaAgentは、中国CSI 500と米国S&P 500市場で、過去4年間で引き続き重要なアルファ版を提供している。
特にAlphaAgentは、アルファ崩壊に対する顕著な抵抗を示し、強力な要因をもたらす可能性を高めている。
- 参考スコア(独自算出の注目度): 43.50447460231601
- License:
- Abstract: Alpha mining, a critical component in quantitative investment, focuses on discovering predictive signals for future asset returns in increasingly complex financial markets. However, the pervasive issue of alpha decay, where factors lose their predictive power over time, poses a significant challenge for alpha mining. Traditional methods like genetic programming face rapid alpha decay from overfitting and complexity, while approaches driven by Large Language Models (LLMs), despite their promise, often rely too heavily on existing knowledge, creating homogeneous factors that worsen crowding and accelerate decay. To address this challenge, we propose AlphaAgent, an autonomous framework that effectively integrates LLM agents with ad hoc regularizations for mining decay-resistant alpha factors. AlphaAgent employs three key mechanisms: (i) originality enforcement through a similarity measure based on abstract syntax trees (ASTs) against existing alphas, (ii) hypothesis-factor alignment via LLM-evaluated semantic consistency between market hypotheses and generated factors, and (iii) complexity control via AST-based structural constraints, preventing over-engineered constructions that are prone to overfitting. These mechanisms collectively guide the alpha generation process to balance originality, financial rationale, and adaptability to evolving market conditions, mitigating the risk of alpha decay. Extensive evaluations show that AlphaAgent outperforms traditional and LLM-based methods in mitigating alpha decay across bull and bear markets, consistently delivering significant alpha in Chinese CSI 500 and US S&P 500 markets over the past four years. Notably, AlphaAgent showcases remarkable resistance to alpha decay, elevating the potential for yielding powerful factors.
- Abstract(参考訳): 量的投資において重要な要素であるアルファマイニングは、ますます複雑な金融市場における将来の資産リターンの予測的シグナルの発見に焦点を当てている。
しかし、時間とともに予測力を失うアルファ崩壊の広範な問題は、アルファ採掘にとって大きな課題となっている。
遺伝的プログラミングのような伝統的な手法は、過度な適合と複雑さから急激なアルファ崩壊に直面し、一方、Large Language Models (LLMs) によって駆動されるアプローチは、約束に反して、しばしば既存の知識に大きく依存し、群れを悪化させ、崩壊を加速させる均質な要因を生み出している。
この課題に対処するために、LLMエージェントとアドホック正規化を効果的に統合し、耐崩壊性アルファ因子をマイニングする自律的フレームワークであるAlphaAgentを提案する。
AlphaAgentには3つの重要なメカニズムがある。
(i)既存のアルファに対する抽象構文木(AST)に基づく類似度尺度による独創性強制。
二 市場仮説と生成要因間の意味的整合性の評価による仮説因子の整合性及び
三 ASTに基づく構造制約による複雑さの制御により、過度に適合しがちなオーバーエンジニアリング構築を防止すること。
これらのメカニズムは、アルファ生成過程をまとめて、原点性、経済的根拠、市場環境の進化への適応性をバランスさせ、アルファ崩壊のリスクを軽減させる。
大規模な評価によると、AlphaAgentは、過去4年間で中国のCSI500と米国のS&P500市場において、牛と熊の市場全体でアルファ崩壊を緩和する伝統的およびLSMベースの方法よりも優れたパフォーマンスを示している。
特にAlphaAgentは、アルファ崩壊に対する顕著な抵抗を示し、強力な要因をもたらす可能性を高めている。
関連論文リスト
- Towards Fully Exploiting LLM Internal States to Enhance Knowledge Boundary Perception [58.62352010928591]
大きな言語モデル(LLM)は様々なタスクにまたがって優れたパフォーマンスを示すが、しばしば知識境界を正確に測定するのに苦労する。
本稿では,LLMの内部状態を有効利用して,効率性やリスクの観点から知識境界に対する認識を高める方法について検討する。
論文 参考訳(メタデータ) (2025-02-17T11:11:09Z) - Adversarial Reasoning at Jailbreaking Time [49.70772424278124]
テスト時間計算による自動ジェイルブレイクに対する逆推論手法を開発した。
我々のアプローチは、LSMの脆弱性を理解するための新しいパラダイムを導入し、より堅牢で信頼性の高いAIシステムの開発の基礎を築いた。
論文 参考訳(メタデータ) (2025-02-03T18:59:01Z) - QuantFactor REINFORCE: Mining Steady Formulaic Alpha Factors with Variance-bounded REINFORCE [5.560011325936085]
アルファ・ファクター・マイニングの目標は、資産の歴史的金融市場データから投資機会の示唆的なシグナルを発見することである。
近年, 深層強化学習を用いた定式化α因子の生成に期待できる枠組みが提案されている。
論文 参考訳(メタデータ) (2024-09-08T15:57:58Z) - AgentPoison: Red-teaming LLM Agents via Poisoning Memory or Knowledge Bases [73.04652687616286]
本稿では,RAG とRAG をベースとした LLM エージェントを標的とした最初のバックドア攻撃である AgentPoison を提案する。
従来のバックドア攻撃とは異なり、AgentPoisonは追加のモデルトレーニングや微調整を必要としない。
エージェントごとに、AgentPoisonは平均攻撃成功率を80%以上達成し、良質なパフォーマンスに最小限の影響を与える。
論文 参考訳(メタデータ) (2024-07-17T17:59:47Z) - AlphaForge: A Framework to Mine and Dynamically Combine Formulaic Alpha Factors [14.80394452270726]
本稿では,アルファ因子マイニングと因子組み合わせのための2段階のアルファ生成フレームワークAlphaForgeを提案する。
実世界のデータセットを用いて行った実験により,我々の提案したモデルは,定式的アルファファクターマイニングにおいて,同時代のベンチマークより優れていることが示された。
論文 参考訳(メタデータ) (2024-06-26T14:34:37Z) - Agent Alignment in Evolving Social Norms [65.45423591744434]
本稿では,エージェント進化とアライメントのための進化的フレームワークであるEvolutionaryAgentを提案する。
社会規範が継続的に進化する環境では、エージェントは現在の社会規範に適応し、生存と増殖の確率が高くなる。
進化的エージェントは、一般的なタスクにおいてその能力を維持しながら、進化する社会規範と徐々に整合できることを示す。
論文 参考訳(メタデータ) (2024-01-09T15:44:44Z) - Synergistic Formulaic Alpha Generation for Quantitative Trading based on Reinforcement Learning [1.3194391758295114]
本稿では,既存のアルファファクタマイニング手法を探索空間を拡張して拡張する手法を提案する。
モデルの性能評価指標として,情報係数 (IC) とランク情報係数 (Rank IC) を用いる。
論文 参考訳(メタデータ) (2024-01-05T08:49:13Z) - The Rise and Potential of Large Language Model Based Agents: A Survey [91.71061158000953]
大規模言語モデル(LLM)は、人工知能(AGI)の潜在的な火花と見なされる
まず、エージェントの概念を哲学的起源からAI開発まで追跡し、LLMがエージェントに適した基盤である理由を説明します。
単一エージェントシナリオ,マルチエージェントシナリオ,ヒューマンエージェント協調の3つの側面において,LLMベースのエージェントの広範な応用について検討する。
論文 参考訳(メタデータ) (2023-09-14T17:12:03Z) - Generating Synergistic Formulaic Alpha Collections via Reinforcement
Learning [20.589583396095225]
我々は、相乗的なアルファの集合のマイニングを優先する新しいアルファマイニングフレームワークを提案する。
我々のフレームワークは、これまでのアプローチよりも高いリターンを達成することができることを示す。
論文 参考訳(メタデータ) (2023-05-25T13:41:07Z) - AlphaEvolve: A Learning Framework to Discover Novel Alphas in
Quantitative Investment [16.27557073668891]
スカラー、ベクター、マトリックスの特徴をモデル化する新しいアルファクラスを紹介します。
新しいアルファは高い精度で戻りを予測し、弱い相関集合にマイニングすることができる。
我々は,新しいアルファを生成するために,AutoMLに基づく新しいアルファマイニングフレームワークであるAlphaEvolveを提案する。
論文 参考訳(メタデータ) (2021-03-30T09:28:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。