論文の概要: The Evolution of Alpha in Finance Harnessing Human Insight and LLM Agents
- arxiv url: http://arxiv.org/abs/2505.14727v1
- Date: Tue, 20 May 2025 00:51:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-22 15:42:58.656481
- Title: The Evolution of Alpha in Finance Harnessing Human Insight and LLM Agents
- Title(参考訳): ファイナンスにおけるアルファの進化 : 人的インサイトとLDMエージェント
- Authors: Mohammad Rubyet Islam,
- Abstract要約: 市場ベンチマークを上回るアルファリターンの探索は、大きな変革を遂げた。
本稿では,この進歩を辿る5段階の分類を包括的に紹介する。
提案された分類学は、成熟度を評価し、インフラを整合させ、次世代アルファシステムの責任ある開発を導く統一的な枠組みを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The pursuit of alpha returns that exceed market benchmarks has undergone a profound transformation, evolving from intuition-driven investing to autonomous, AI powered systems. This paper introduces a comprehensive five stage taxonomy that traces this progression across manual strategies, statistical models, classical machine learning, deep learning, and agentic architectures powered by large language models (LLMs). Unlike prior surveys focused narrowly on modeling techniques, this review adopts a system level lens, integrating advances in representation learning, multimodal data fusion, and tool augmented LLM agents. The strategic shift from static predictors to contextaware financial agents capable of real time reasoning, scenario simulation, and cross modal decision making is emphasized. Key challenges in interpretability, data fragility, governance, and regulatory compliance areas critical to production deployment are examined. The proposed taxonomy offers a unified framework for evaluating maturity, aligning infrastructure, and guiding the responsible development of next generation alpha systems.
- Abstract(参考訳): 市場ベンチマークを超えるアルファリターンの追求は、直観駆動の投資から自律型AI駆動システムへと、大きな変革を遂げている。
本稿では,手動戦略,統計モデル,古典的機械学習,深層学習,大規模言語モデル(LLM)を活用したエージェントアーキテクチャを網羅した5段階分類法を提案する。
モデリング技術に焦点を絞った以前の調査とは異なり、このレビューではシステムレベルのレンズを採用し、表現学習、マルチモーダルデータ融合、ツール拡張LDMエージェントの進歩を統合する。
静的予測器からリアルタイム推論、シナリオシミュレーション、クロスモーダル意思決定が可能なコンテキスト対応金融エージェントへの戦略的シフトが強調される。
インタプリタビリティ、データ脆弱性、ガバナンス、および運用デプロイメントに不可欠な規制コンプライアンス領域における主な課題について検討する。
提案された分類学は、成熟度を評価し、インフラを整合させ、次世代アルファシステムの責任ある開発を導く統一的な枠組みを提供する。
関連論文リスト
- The Evolution of Video Anomaly Detection: A Unified Framework from DNN to MLLM [27.800308082023285]
ビデオ異常検出(VAD)は、ビデオ内の異常な行動や出来事を特定し、接地することを目的としている。
深層モデルアーキテクチャの継続的な進化は、VAD方法論の革新を促した。
MLLM(Multi-modal large language)とLLM(Large Language Model)の急速な開発により、VAD分野に新たな機会と課題がもたらされた。
論文 参考訳(メタデータ) (2025-07-29T10:07:24Z) - A Survey of Self-Evolving Agents: On Path to Artificial Super Intelligence [87.08051686357206]
大きな言語モデル(LLM)は強力な能力を示しているが、基本的に静的である。
LLMはますますオープンでインタラクティブな環境にデプロイされているため、この静的な性質は重要なボトルネックとなっている。
この調査は、自己進化エージェントの体系的で包括的なレビューを初めて提供する。
論文 参考訳(メタデータ) (2025-07-28T17:59:05Z) - Discrete Tokenization for Multimodal LLMs: A Comprehensive Survey [69.45421620616486]
本研究は、大規模言語モデル(LLM)用に設計された離散トークン化手法の最初の構造的分類と解析である。
古典的および近代的なパラダイムにまたがる8つの代表的なVQ変種を分類し、アルゴリズムの原理を分析し、力学を訓練し、LLMパイプラインとの統合に挑戦する。
コードブックの崩壊、不安定な勾配推定、モダリティ固有の符号化制約など、重要な課題を特定する。
論文 参考訳(メタデータ) (2025-07-21T10:52:14Z) - Navigating the Alpha Jungle: An LLM-Powered MCTS Framework for Formulaic Factor Mining [8.53606484300001]
本稿では,大規模言語モデル (LLM) とモンテカルロ木探索 (MCTS) を統合する新しいフレームワークを提案する。
重要な革新は、MCTS探究のガイダンスであり、各候補因子の金銭的バックテストから、豊かで定量的なフィードバックによってである。
実世界の株式市場データによる実験結果から, LLMをベースとしたフレームワークは, 予測精度と取引性能に優れたアルファをマイニングすることにより, 既存手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2025-05-16T11:14:17Z) - A Survey of Frontiers in LLM Reasoning: Inference Scaling, Learning to Reason, and Agentic Systems [93.8285345915925]
推論(Reasoning)は、論理的推論、問題解決、意思決定を可能にする基本的な認知プロセスである。
大規模言語モデル(LLM)の急速な進歩により、推論は高度なAIシステムを区別する重要な能力として浮上した。
我々は,(1)推論が達成される段階を定義するレジーム,(2)推論プロセスに関与するコンポーネントを決定するアーキテクチャの2つの側面に沿って既存の手法を分類する。
論文 参考訳(メタデータ) (2025-04-12T01:27:49Z) - From Deep Learning to LLMs: A survey of AI in Quantitative Investment [16.199923554636317]
量的投資(量的投資)は、資産管理における新興かつ技術主導のアプローチである。
量子ファイナンスのためのディープラーニングと大規模言語モデル(LLM)の最近の進歩は、予測モデリングを改善し、エージェントベースの自動化を可能にした。
論文 参考訳(メタデータ) (2025-03-27T12:10:15Z) - Will Pre-Training Ever End? A First Step Toward Next-Generation Foundation MLLMs via Self-Improving Systematic Cognition [86.21199607040147]
自己改善認知(Self-Improving cognition、SIcog)は、次世代基礎言語モデルを構築するための自己学習フレームワークである。
ステップバイステップの視覚的理解手法であるChain-of-Descriptionを導入し、構造化連鎖推論(CoT)を統合し、深いマルチモーダル推論をサポートする。
広範囲にわたる実験により、SIcogはマルチモーダル認知を著しく改善した次世代基盤MLLMを生産することが示された。
論文 参考訳(メタデータ) (2025-03-16T00:25:13Z) - Large Language Models Post-training: Surveying Techniques from Alignment to Reasoning [185.51013463503946]
大規模言語モデル(LLM)は、自然言語処理を根本的に変革し、会話システムから科学的探索まで、さまざまな領域で欠かせないものにしている。
これらの課題は、制限された推論能力、倫理的不確実性、最適なドメイン固有のパフォーマンスといった欠点に対処するために、先進的な訓練後言語モデル(PoLM)を必要とする。
本稿では,タスク固有の精度を向上するファインチューニング,倫理的コヒーレンスと人間の嗜好との整合性を保証するアライメント,報酬設計の課題によらず多段階の推論を進める推論,統合と適応の5つのパラダイムを体系的に追跡したPoLMの総合的な調査について述べる。
論文 参考訳(メタデータ) (2025-03-08T05:41:42Z) - LLM Post-Training: A Deep Dive into Reasoning Large Language Models [131.10969986056]
大規模言語モデル (LLMs) は自然言語処理の状況を変え、多様な応用をもたらした。
ポストトレーニング手法により、LLMは知識を洗練させ、推論を改善し、事実の正確性を高め、ユーザの意図や倫理的配慮をより効果的に整合させることができる。
論文 参考訳(メタデータ) (2025-02-28T18:59:54Z) - An Overview of Large Language Models for Statisticians [109.38601458831545]
大規模言語モデル(LLM)は人工知能(AI)の変換ツールとして登場した。
本稿では, 統計学者がLLMの開発に重要な貢献できる可能性について考察する。
我々は不確実性定量化、解釈可能性、公正性、プライバシー、透かし、モデル適応といった問題に焦点を当てる。
論文 参考訳(メタデータ) (2025-02-25T03:40:36Z) - Automate Strategy Finding with LLM in Quant Investment [15.475504003134787]
本稿では,大規模言語モデル(LLM)をリスク認識型マルチエージェントシステム内で活用し,定量的ファイナンスにおける戦略発見を自動化する新しい3段階フレームワークを提案する。
本手法は,金融分野における従来のディープラーニングモデルの脆さに対処するものである。
実験結果は、確立されたベンチマークと比較して、中国とアメリカの市場体制における戦略の堅牢な性能を示している。
論文 参考訳(メタデータ) (2024-09-10T07:42:28Z) - A Survey on Self-Evolution of Large Language Models [116.54238664264928]
大規模言語モデル(LLM)は、様々な分野やインテリジェントエージェントアプリケーションにおいて大きく進歩している。
この問題に対処するために、LLMが自律的に獲得し、洗練し、モデル自身によって生成された経験から学ぶことができる自己進化的アプローチが急速に成長している。
論文 参考訳(メタデータ) (2024-04-22T17:43:23Z) - Unleashing the potential of prompt engineering for large language models [1.6006550105523192]
大規模言語モデル(LLM)の能力を解き放つ上で,迅速なエンジニアリングが果たす重要な役割を概観する
自己整合性、思考の連鎖、そして生成された知識などの技術を含む、素早い工学の基礎的方法論と先進的な方法論の両方を検査する。
AIセキュリティの側面、特に迅速なエンジニアリングの脆弱性を悪用する敵攻撃について論じる。
論文 参考訳(メタデータ) (2023-10-23T09:15:18Z) - SELF: Self-Evolution with Language Feedback [68.6673019284853]
SELF(Self-Evolution with Language Feedback)は、大規模言語モデルを進化させる新しいアプローチである。
LLMは、人間の学習プロセスと同様、自己回帰を通じて自己改善を可能にする。
数学および一般タスクにおける実験により,SELFは人間の介入なしにLLMの能力を高めることができることが示された。
論文 参考訳(メタデータ) (2023-10-01T00:52:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。