論文の概要: From Deep Learning to LLMs: A survey of AI in Quantitative Investment
- arxiv url: http://arxiv.org/abs/2503.21422v1
- Date: Thu, 27 Mar 2025 12:10:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-28 12:50:50.653928
- Title: From Deep Learning to LLMs: A survey of AI in Quantitative Investment
- Title(参考訳): ディープラーニングからLLMへ: 定量的投資におけるAIの調査
- Authors: Bokai Cao, Saizhuo Wang, Xinyi Lin, Xiaojun Wu, Haohan Zhang, Lionel M. Ni, Jian Guo,
- Abstract要約: 量的投資(量的投資)は、資産管理における新興かつ技術主導のアプローチである。
量子ファイナンスのためのディープラーニングと大規模言語モデル(LLM)の最近の進歩は、予測モデリングを改善し、エージェントベースの自動化を可能にした。
- 参考スコア(独自算出の注目度): 16.199923554636317
- License:
- Abstract: Quantitative investment (quant) is an emerging, technology-driven approach in asset management, increasingy shaped by advancements in artificial intelligence. Recent advances in deep learning and large language models (LLMs) for quant finance have improved predictive modeling and enabled agent-based automation, suggesting a potential paradigm shift in this field. In this survey, taking alpha strategy as a representative example, we explore how AI contributes to the quantitative investment pipeline. We first examine the early stage of quant research, centered on human-crafted features and traditional statistical models with an established alpha pipeline. We then discuss the rise of deep learning, which enabled scalable modeling across the entire pipeline from data processing to order execution. Building on this, we highlight the emerging role of LLMs in extending AI beyond prediction, empowering autonomous agents to process unstructured data, generate alphas, and support self-iterative workflows.
- Abstract(参考訳): 量的投資 (quantated investment) は、人工知能の進歩によって形作られた資産管理における、新たな技術主導のアプローチである。
量子ファイナンスのためのディープラーニングと大規模言語モデル(LLM)の最近の進歩は、予測モデリングを改善し、エージェントベースの自動化を可能にし、この分野における潜在的なパラダイムシフトを示唆している。
本調査では,アルファ戦略を代表例として,AIが定量的投資パイプラインにどのように貢献するかを検討する。
まず,人為的な特徴と,確立されたアルファパイプラインを用いた従来の統計モデルに着目した量子研究の初期段階について検討する。
次に、データ処理から注文実行に至るまで、パイプライン全体にわたってスケーラブルなモデリングを可能にするディープラーニングの台頭について論じる。
これに基づいて、予測を超えてAIを拡張し、自律エージェントに非構造化データを処理する権限を与え、アルファを生成し、セルフイテレーティブなワークフローをサポートするという、LLMの新たな役割を強調します。
関連論文リスト
- Latent-Predictive Empowerment: Measuring Empowerment without a Simulator [56.53777237504011]
我々は、より実用的な方法でエンパワーメントを計算するアルゴリズムであるLatent-Predictive Empowerment(LPE)を提案する。
LPEは、スキルと国家間の相互情報の原則的な置き換えである目的を最大化することで、大きなスキルセットを学習する。
論文 参考訳(メタデータ) (2024-10-15T00:41:18Z) - Data Analysis in the Era of Generative AI [56.44807642944589]
本稿では,AIを活用したデータ分析ツールの可能性について考察する。
我々は、大規模言語とマルチモーダルモデルの出現が、データ分析ワークフローの様々な段階を強化する新しい機会を提供する方法について検討する。
次に、直感的なインタラクションを促進し、ユーザ信頼を構築し、AI支援分析ワークフローを複数のアプリにわたって合理化するための、人間中心の設計原則を調べます。
論文 参考訳(メタデータ) (2024-09-27T06:31:03Z) - Vision Foundation Models in Remote Sensing: A Survey [6.036426846159163]
ファンデーションモデルは、前例のない精度と効率で幅広いタスクを実行することができる大規模で事前訓練されたAIモデルである。
本調査は, 遠隔センシングにおける基礎モデルの開発と応用を継続するために, 進展のパノラマと将来性のある経路を提供することによって, 研究者や実践者の資源として機能することを目的としている。
論文 参考訳(メタデータ) (2024-08-06T22:39:34Z) - Survey and Taxonomy: The Role of Data-Centric AI in Transformer-Based Time Series Forecasting [36.31269406067809]
データ中心のAIは、AIモデルのトレーニング、特にトランスフォーマーベースのTSFモデルの効率的なトレーニングに不可欠である、と私たちは主張する。
我々は、データ中心のAIの観点から、これまでの研究成果をレビューし、トランスフォーマーベースのアーキテクチャとデータ中心のAIの将来の開発のための基礎的な作業を行うつもりです。
論文 参考訳(メタデータ) (2024-07-29T08:27:21Z) - Automating Venture Capital: Founder assessment using LLM-powered segmentation, feature engineering and automated labeling techniques [0.0]
本研究では、ベンチャーキャピタル(VC)意思決定における大規模言語モデル(LLM)の適用について検討する。
我々はLLMプロンプト技術を利用して、限られたデータから特徴を生成し、統計と機械学習を通して洞察を抽出する。
この結果から,特定の創始者特性と成功との関係が明らかとなり,予測におけるこれらの特性の有効性が示された。
論文 参考訳(メタデータ) (2024-07-05T22:54:13Z) - Generative AI Agent for Next-Generation MIMO Design: Fundamentals, Challenges, and Vision [76.4345564864002]
次世代の多重入力多重出力(MIMO)はインテリジェントでスケーラブルであることが期待される。
本稿では、カスタマイズされた特殊コンテンツを生成することができる生成型AIエージェントの概念を提案する。
本稿では、生成AIエージェントをパフォーマンス分析に活用することの有効性を示す2つの説得力のあるケーススタディを示す。
論文 参考訳(メタデータ) (2024-04-13T02:39:36Z) - A Survey on Robotics with Foundation Models: toward Embodied AI [30.999414445286757]
近年のコンピュータビジョン,自然言語処理,マルチモーダリティ学習の進歩は,基礎モデルが特定のタスクに対して超人的能力を持つことを示している。
この調査は、ロボット工学の基礎モデルの包括的で最新の概要を提供し、自律的な操作に焦点を当て、高レベルの計画と低レベルの制御を包含することを目的としている。
論文 参考訳(メタデータ) (2024-02-04T07:55:01Z) - Unleashing the potential of prompt engineering in Large Language Models: a comprehensive review [1.6006550105523192]
大規模言語モデル(LLM)の能力を解き放つ上で,迅速なエンジニアリングが果たす重要な役割を概観する
自己整合性、思考の連鎖、そして生成された知識などの技術を含む、素早い工学の基礎的方法論と先進的な方法論の両方を検査する。
レビューはまた、AI能力の進歩におけるエンジニアリングの急進的な役割を反映し、将来の研究と応用のための構造化されたフレームワークを提供する。
論文 参考訳(メタデータ) (2023-10-23T09:15:18Z) - Exploration with Principles for Diverse AI Supervision [88.61687950039662]
次世代の予測を用いた大規模トランスフォーマーのトレーニングは、AIの画期的な進歩を生み出した。
この生成AIアプローチは印象的な結果をもたらしたが、人間の監督に大きく依存している。
この人間の監視への強い依存は、AIイノベーションの進歩に重大なハードルをもたらす。
本稿では,高品質なトレーニングデータを自律的に生成することを目的とした,探索型AI(EAI)という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-10-13T07:03:39Z) - Deep Active Learning for Computer Vision: Past and Future [50.19394935978135]
AIモデルの開発に欠かせない役割にもかかわらず、アクティブラーニングの研究は他の研究の方向性ほど集中的ではない。
データ自動化の課題に対処し、自動化された機械学習システムに対処することによって、アクティブな学習はAI技術の民主化を促進する。
論文 参考訳(メタデータ) (2022-11-27T13:07:14Z) - Pre-Trained Models: Past, Present and Future [126.21572378910746]
大規模事前訓練モデル(PTM)は近年大きな成功を収め、人工知能(AI)分野におけるマイルストーンとなった。
知識を巨大なパラメータに格納し、特定のタスクを微調整することで、巨大なパラメータに暗黙的にエンコードされた豊富な知識は、さまざまな下流タスクの恩恵を受けることができる。
AIコミュニティが、モデルをスクラッチから学習するのではなく、下流タスクのバックボーンとしてPTMを採用することは、今、コンセンサスになっている。
論文 参考訳(メタデータ) (2021-06-14T02:40:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。