論文の概要: The Evolution of Alpha in Finance Harnessing Human Insight and LLM Agents
- arxiv url: http://arxiv.org/abs/2505.14727v1
- Date: Tue, 20 May 2025 00:51:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-22 15:42:58.656481
- Title: The Evolution of Alpha in Finance Harnessing Human Insight and LLM Agents
- Title(参考訳): ファイナンスにおけるアルファの進化 : 人的インサイトとLDMエージェント
- Authors: Mohammad Rubyet Islam,
- Abstract要約: 市場ベンチマークを上回るアルファリターンの探索は、大きな変革を遂げた。
本稿では,この進歩を辿る5段階の分類を包括的に紹介する。
提案された分類学は、成熟度を評価し、インフラを整合させ、次世代アルファシステムの責任ある開発を導く統一的な枠組みを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The pursuit of alpha returns that exceed market benchmarks has undergone a profound transformation, evolving from intuition-driven investing to autonomous, AI powered systems. This paper introduces a comprehensive five stage taxonomy that traces this progression across manual strategies, statistical models, classical machine learning, deep learning, and agentic architectures powered by large language models (LLMs). Unlike prior surveys focused narrowly on modeling techniques, this review adopts a system level lens, integrating advances in representation learning, multimodal data fusion, and tool augmented LLM agents. The strategic shift from static predictors to contextaware financial agents capable of real time reasoning, scenario simulation, and cross modal decision making is emphasized. Key challenges in interpretability, data fragility, governance, and regulatory compliance areas critical to production deployment are examined. The proposed taxonomy offers a unified framework for evaluating maturity, aligning infrastructure, and guiding the responsible development of next generation alpha systems.
- Abstract(参考訳): 市場ベンチマークを超えるアルファリターンの追求は、直観駆動の投資から自律型AI駆動システムへと、大きな変革を遂げている。
本稿では,手動戦略,統計モデル,古典的機械学習,深層学習,大規模言語モデル(LLM)を活用したエージェントアーキテクチャを網羅した5段階分類法を提案する。
モデリング技術に焦点を絞った以前の調査とは異なり、このレビューではシステムレベルのレンズを採用し、表現学習、マルチモーダルデータ融合、ツール拡張LDMエージェントの進歩を統合する。
静的予測器からリアルタイム推論、シナリオシミュレーション、クロスモーダル意思決定が可能なコンテキスト対応金融エージェントへの戦略的シフトが強調される。
インタプリタビリティ、データ脆弱性、ガバナンス、および運用デプロイメントに不可欠な規制コンプライアンス領域における主な課題について検討する。
提案された分類学は、成熟度を評価し、インフラを整合させ、次世代アルファシステムの責任ある開発を導く統一的な枠組みを提供する。
関連論文リスト
- From Deep Learning to LLMs: A survey of AI in Quantitative Investment [16.199923554636317]
量的投資(量的投資)は、資産管理における新興かつ技術主導のアプローチである。
量子ファイナンスのためのディープラーニングと大規模言語モデル(LLM)の最近の進歩は、予測モデリングを改善し、エージェントベースの自動化を可能にした。
論文 参考訳(メタデータ) (2025-03-27T12:10:15Z) - Will Pre-Training Ever End? A First Step Toward Next-Generation Foundation MLLMs via Self-Improving Systematic Cognition [86.21199607040147]
自己改善認知(Self-Improving cognition、SIcog)は、次世代基礎言語モデルを構築するための自己学習フレームワークである。
ステップバイステップの視覚的理解手法であるChain-of-Descriptionを導入し、構造化連鎖推論(CoT)を統合し、深いマルチモーダル推論をサポートする。
広範囲にわたる実験により、SIcogはマルチモーダル認知を著しく改善した次世代基盤MLLMを生産することが示された。
論文 参考訳(メタデータ) (2025-03-16T00:25:13Z) - Large Language Models Post-training: Surveying Techniques from Alignment to Reasoning [185.51013463503946]
大規模言語モデル(LLM)は、自然言語処理を根本的に変革し、会話システムから科学的探索まで、さまざまな領域で欠かせないものにしている。
これらの課題は、制限された推論能力、倫理的不確実性、最適なドメイン固有のパフォーマンスといった欠点に対処するために、先進的な訓練後言語モデル(PoLM)を必要とする。
本稿では,タスク固有の精度を向上するファインチューニング,倫理的コヒーレンスと人間の嗜好との整合性を保証するアライメント,報酬設計の課題によらず多段階の推論を進める推論,統合と適応の5つのパラダイムを体系的に追跡したPoLMの総合的な調査について述べる。
論文 参考訳(メタデータ) (2025-03-08T05:41:42Z) - An Overview of Large Language Models for Statisticians [109.38601458831545]
大規模言語モデル(LLM)は人工知能(AI)の変換ツールとして登場した。
本稿では, 統計学者がLLMの開発に重要な貢献できる可能性について考察する。
我々は不確実性定量化、解釈可能性、公正性、プライバシー、透かし、モデル適応といった問題に焦点を当てる。
論文 参考訳(メタデータ) (2025-02-25T03:40:36Z) - Automate Strategy Finding with LLM in Quant Investment [15.475504003134787]
本稿では,大規模言語モデル(LLM)をリスク認識型マルチエージェントシステム内で活用し,定量的ファイナンスにおける戦略発見を自動化する新しい3段階フレームワークを提案する。
本手法は,金融分野における従来のディープラーニングモデルの脆さに対処するものである。
実験結果は、確立されたベンチマークと比較して、中国とアメリカの市場体制における戦略の堅牢な性能を示している。
論文 参考訳(メタデータ) (2024-09-10T07:42:28Z) - A Survey on Self-Evolution of Large Language Models [116.54238664264928]
大規模言語モデル(LLM)は、様々な分野やインテリジェントエージェントアプリケーションにおいて大きく進歩している。
この問題に対処するために、LLMが自律的に獲得し、洗練し、モデル自身によって生成された経験から学ぶことができる自己進化的アプローチが急速に成長している。
論文 参考訳(メタデータ) (2024-04-22T17:43:23Z) - SELF: Self-Evolution with Language Feedback [68.6673019284853]
SELF(Self-Evolution with Language Feedback)は、大規模言語モデルを進化させる新しいアプローチである。
LLMは、人間の学習プロセスと同様、自己回帰を通じて自己改善を可能にする。
数学および一般タスクにおける実験により,SELFは人間の介入なしにLLMの能力を高めることができることが示された。
論文 参考訳(メタデータ) (2023-10-01T00:52:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。