論文の概要: Exploring the Synergy of Quantitative Factors and Newsflow Representations from Large Language Models for Stock Return Prediction
- arxiv url: http://arxiv.org/abs/2510.15691v2
- Date: Sat, 01 Nov 2025 22:24:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-04 16:14:22.330354
- Title: Exploring the Synergy of Quantitative Factors and Newsflow Representations from Large Language Models for Stock Return Prediction
- Title(参考訳): ストックリターン予測のための大規模言語モデルからの定量的因子とニュースフロー表現の相乗効果の探索
- Authors: Tian Guo, Emmanuel Hauptmann,
- Abstract要約: 定量的投資では、リターン予測は株式選択、ポートフォリオ最適化、リスク管理など様々なタスクをサポートする。
ニュースや文字起こしのような構造化されていない財務データは、近年の大規模言語モデル(LLM)の進歩によって、注目を集めている。
本稿では,リターン予測と株価選択において,マルチモーダル要因とニューズフローを活用する効果的な手法について検討する。
- 参考スコア(独自算出の注目度): 2.053044595519301
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In quantitative investing, return prediction supports various tasks, including stock selection, portfolio optimization, and risk management. Quantitative factors, such as valuation, quality, and growth, capture various characteristics of stocks. Unstructured financial data, like news and transcripts, has attracted growing attention, driven by recent advances in large language models (LLMs). This paper examines effective methods for leveraging multimodal factors and newsflow in return prediction and stock selection. First, we introduce a fusion learning framework to learn a unified representation from factors and newsflow representations generated by an LLM. Within this framework, we compare three representative methods: representation combination, representation summation, and attentive representations. Next, building on empirical observations from fusion learning, we explore the mixture model that adaptively combines predictions made by single modalities and their fusion. To mitigate the training instability observed in the mixture model, we introduce a decoupled training approach with theoretical insights. Finally, our experiments on real investment universes yield several insights into effective multimodal modeling of factors and news for stock return prediction and selection.
- Abstract(参考訳): 定量的投資では、リターン予測は株式選択、ポートフォリオ最適化、リスク管理など様々なタスクをサポートする。
評価、品質、成長などの定量的要因は、株式の様々な特性を捉えている。
ニュースや文字起こしのような構造化されていない財務データは、近年の大規模言語モデル(LLM)の進歩によって、注目を集めている。
本稿では,リターン予測と株価選択において,マルチモーダル要因とニューズフローを活用する効果的な手法について検討する。
まず,LLM が生成する因子やニュースフローから統一表現を学習するための融合学習フレームワークを提案する。
本フレームワークでは,表現の組み合わせ,表現の要約,注意表現の3つの代表的手法を比較する。
次に,融合学習による経験的観察に基づいて,単一モーダルによる予測と融合を適応的に組み合わせた混合モデルを探索する。
混合モデルで観測されるトレーニング不安定性を緩和するために,理論的な洞察を伴う非結合的なトレーニングアプローチを導入する。
最後に、実投資宇宙に関する我々の実験は、実投資の予測と選択のための因子とニュースの効果的なマルチモーダルモデリングに関するいくつかの洞察を得る。
関連論文リスト
- Multi-modal Bayesian Neural Network Surrogates with Conjugate Last-Layer Estimation [0.30586855806896046]
我々は、2つのマルチモーダルニューラルネットワークサロゲートモデルを開発し、最終層における条件共役分布を利用してモデルパラメータを推定する。
我々は,スカラーデータと時系列データの両方に対する一様サロゲートモデルと比較して,予測精度と不確実性が改善されたことを示す。
論文 参考訳(メタデータ) (2025-09-26T00:13:57Z) - Multimodal Language Models with Modality-Specific Experts for Financial Forecasting from Interleaved Sequences of Text and Time Series [18.185361179633553]
テキストと時系列のデータは、金融市場の補完的な見方を提供する。
我々は,これらのインターリーブ配列をモダリティに特化した専門家を用いてモデル化する統一型ニューラルネットワークを提案する。
我々は,大規模財務予測課題におけるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2025-09-23T22:40:31Z) - Beyond DAGs: A Latent Partial Causal Model for Multimodal Learning [80.44084021062105]
本稿では,非方向エッジで連結された2つの潜在結合変数を特徴とする,多モーダルデータに対する新しい潜在部分因果モデルを提案する。
特定の統計的仮定の下では、多モーダル・コントラッシブ・ラーニングによって学習された表現が、自明な変換までの潜在結合変数に対応することを示す。
事前トレーニングされたCLIPモデルの実験は、非絡み合った表現を具現化し、数ショットの学習を可能にし、さまざまな現実世界のデータセットにわたるドメインの一般化を改善する。
論文 参考訳(メタデータ) (2024-02-09T07:18:06Z) - Incorporating Pre-trained Model Prompting in Multimodal Stock Volume
Movement Prediction [22.949484374773967]
本稿では,PromptをベースとしたMUltimodal Stock volumE予測モデル(ProMUSE)を提案する。
金融ニュースの理解を深めるために、事前訓練された言語モデルを使用します。
また, この問題を緩和するため, 核融合ヘッドの横にある一方向の頭部を保ちながら, 新たな異方性コントラストアライメントを提案する。
論文 参考訳(メタデータ) (2023-09-11T16:47:01Z) - Factor Investing with a Deep Multi-Factor Model [123.52358449455231]
我々は、業界中立化と市場中立化モジュールを明確な財務見識をもって取り入れた、新しい深層多要素モデルを開発する。
実世界の株式市場データによるテストは、我々の深層多要素モデルの有効性を示している。
論文 参考訳(メタデータ) (2022-10-22T14:47:11Z) - Mutual Information Divergence: A Unified Metric for Multimodal
Generative Models [19.520177195241704]
我々は,MID(Multual Information Divergence)を用いて作成したCLIP特徴を統一計量として用いた負のガウス交叉情報を提案する。
我々は、テキスト・ツー・イメージ生成や画像キャプションタスクにおいて、慎重に生成された、あるいは人手による判断を用いて、競合する指標と比較した。
提案したMIDは、ベンチマーク、サンプルパーシモニー、および悪用されたCLIPモデルに対するロバスト性によって、競合する手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2022-05-25T09:34:37Z) - High-Modality Multimodal Transformer: Quantifying Modality & Interaction
Heterogeneity for High-Modality Representation Learning [112.51498431119616]
本稿では,多種多様なモダリティを含む高モダリティシナリオに対する効率的な表現学習について検討する。
単一のモデルであるHighMMTは、テキスト、画像、オーディオ、ビデオ、センサー、プロプレセプション、スピーチ、時系列、セット、テーブル)と5つの研究領域から15のタスクをスケールする。
論文 参考訳(メタデータ) (2022-03-02T18:56:20Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [54.94763543386523]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。