論文の概要: NewsNet-SDF: Stochastic Discount Factor Estimation with Pretrained Language Model News Embeddings via Adversarial Networks
- arxiv url: http://arxiv.org/abs/2505.06864v1
- Date: Sun, 11 May 2025 06:18:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.081833
- Title: NewsNet-SDF: Stochastic Discount Factor Estimation with Pretrained Language Model News Embeddings via Adversarial Networks
- Title(参考訳): NewsNet-SDF: 事前学習型言語モデルニューズ埋め込みによる確率的要因推定
- Authors: Shunyao Wang, Ming Cheng, Christina Dan Wang,
- Abstract要約: NewsNet-SDFは、事前訓練された言語モデルの埋め込みと財務時系列をシームレスに統合する新しいディープラーニングフレームワークである。
私たちのデータセットには、約250万のニュース記事と1万のユニークな証券が含まれています。
- 参考スコア(独自算出の注目度): 7.014136939144529
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Stochastic Discount Factor (SDF) models provide a unified framework for asset pricing and risk assessment, yet traditional formulations struggle to incorporate unstructured textual information. We introduce NewsNet-SDF, a novel deep learning framework that seamlessly integrates pretrained language model embeddings with financial time series through adversarial networks. Our multimodal architecture processes financial news using GTE-multilingual models, extracts temporal patterns from macroeconomic data via LSTM networks, and normalizes firm characteristics, fusing these heterogeneous information sources through an innovative adversarial training mechanism. Our dataset encompasses approximately 2.5 million news articles and 10,000 unique securities, addressing the computational challenges of processing and aligning text data with financial time series. Empirical evaluations on U.S. equity data (1980-2022) demonstrate NewsNet-SDF substantially outperforms alternatives with a Sharpe ratio of 2.80. The model shows a 471% improvement over CAPM, over 200% improvement versus traditional SDF implementations, and a 74% reduction in pricing errors compared to the Fama-French five-factor model. In comprehensive comparisons, our deep learning approach consistently outperforms traditional, modern, and other neural asset pricing models across all key metrics. Ablation studies confirm that text embeddings contribute significantly more to model performance than macroeconomic features, with news-derived principal components ranking among the most influential determinants of SDF dynamics. These results validate the effectiveness of our multimodal deep learning approach in integrating unstructured text with traditional financial data for more accurate asset pricing, providing new insights for digital intelligent decision-making in financial technology.
- Abstract(参考訳): Stochastic Discount Factor(SDF)モデルは、資産価格とリスク評価のための統一されたフレームワークを提供するが、従来の定式化では構造化されていないテキスト情報を組み込むのに苦労している。
我々は,事前学習された言語モデルの埋め込みを,敵対的ネットワークを通じて財務時系列にシームレスに統合する,新しいディープラーニングフレームワークであるNewsNet-SDFを紹介した。
我々のマルチモーダルアーキテクチャは、GTE-multilingualモデルを用いて財務ニュースを処理し、LSTMネットワークを介してマクロ経済データから時間パターンを抽出し、これらの異種情報ソースを革新的な対角訓練機構で融合させ、強固な特徴を正規化する。
我々のデータセットは、約250万のニュース記事と1万のユニークな証券を包含し、テキストデータの処理と財務時系列の整合に関する計算上の課題に対処している。
米国の株式データ(1980-2022)に関する実証的な評価は、NewsNet-SDFがシャープ比2.80の代替品を著しく上回っていることを示している。
このモデルでは、CAPMよりも471%改善され、従来のSDFよりも200%改善され、Fama-Frenchの5要素モデルに比べて価格エラーが74%減少した。
包括的な比較では、私たちのディープラーニングアプローチは、すべての主要なメトリクスにわたって、従来的、現代的、その他のニューラルアセット価格モデルよりも一貫して優れています。
アブレーション研究は,SDF力学の最も影響力のある行列式の中で,ニュース由来の主成分をランク付けすることにより,テキストの埋め込みがマクロ経済学的特徴よりもモデル性能に大きく寄与することを確認した。
これらの結果は,非構造化テキストと従来型の財務データの統合による多モード深層学習の有効性を検証し,より正確な資産価格設定を行い,金融技術におけるデジタルインテリジェントな意思決定のための新たな洞察を提供する。
関連論文リスト
- An Advanced Ensemble Deep Learning Framework for Stock Price Prediction Using VAE, Transformer, and LSTM Model [4.097563258332958]
本研究では,3つの先進ニューラルネットワークアーキテクチャを組み合わせることで,株価予測のための最先端の深層学習フレームワークを提案する。
このフレームワークは豊富な技術的指標を使用し、現在の市場状況に基づいて予測器をスケールする。
金融専門家や学者にとって、アルゴリズム取引、リスク分析、制御と意思決定に非常に重要な応用がある。
論文 参考訳(メタデータ) (2025-03-28T07:20:40Z) - A Deep Learning Framework Integrating CNN and BiLSTM for Financial Systemic Risk Analysis and Prediction [17.6825558707504]
本研究では、畳み込みニューラルネットワーク(CNN)と双方向長短期記憶ネットワーク(BiLSTM)を組み合わせたディープラーニングモデルを提案する。
このモデルはまずCNNを用いて金融市場の多次元特徴の局所パターンを抽出し、次にBiLSTMを通して時系列の双方向依存性をモデル化する。
その結果,従来の単一モデルよりも精度,リコール,F1スコアの点で優れていることがわかった。
論文 参考訳(メタデータ) (2025-02-07T07:57:11Z) - EUR/USD Exchange Rate Forecasting incorporating Text Mining Based on Pre-trained Language Models and Deep Learning Methods [0.0]
本研究では,深層学習,テキスト解析,粒子群最適化(PSO)を統合したEUR/USD交換レート予測の新しい手法を提案する。
オンラインニュースや分析テキストを定性的データとして組み込むことにより,提案したPSO-LSTMモデルは従来のエコノメトリや機械学習モデルよりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-11-12T05:28:52Z) - BreakGPT: Leveraging Large Language Models for Predicting Asset Price Surges [55.2480439325792]
本稿では,時系列予測や資産価格の急上昇の予測に特化して,新たな大規模言語モデル(LLM)アーキテクチャであるBreakGPTを紹介する。
我々は、最小限のトレーニングで財務予測を行うための有望なソリューションとしてBreakGPTを紹介し、局所的およびグローバルな時間的依存関係をキャプチャする強力な競合相手として紹介する。
論文 参考訳(メタデータ) (2024-11-09T05:40:32Z) - EUR-USD Exchange Rate Forecasting Based on Information Fusion with Large Language Models and Deep Learning Methods [0.0]
本稿では、ニュースや分析からの非構造化テキストデータを交換レートや財務指標に関する構造化データと統合する新しいフレームワークIUSを提案する。
次に、オプトゥーナ最適化Bi-LSTMモデルを用いて、EUR/USD交換レートを予測する。
実験の結果、提案手法はベンチマークモデルを上回る性能を示し、MAEを10.69%、RMSEを9.56%削減した。
論文 参考訳(メタデータ) (2024-08-23T16:46:36Z) - Unlocking the Potential of Model Merging for Low-Resource Languages [66.7716891808697]
大規模言語モデルを新しい言語に適応させるには、通常、継続事前訓練(CT)と、教師付き微調整(SFT)が含まれる。
我々は低リソース言語の代替としてモデルマージを提案し、異なる機能を持つモデルを追加トレーニングなしで単一のモデルに組み合わせる。
Llama-2-7Bをベースとした実験により、モデルマージはタスク解決能力の低い低リソース言語に対して、極めて少ないデータを持つシナリオにおいて、CT-then-SFTよりも優れていることが実証された。
論文 参考訳(メタデータ) (2024-07-04T15:14:17Z) - Incorporating Pre-trained Model Prompting in Multimodal Stock Volume
Movement Prediction [22.949484374773967]
本稿では,PromptをベースとしたMUltimodal Stock volumE予測モデル(ProMUSE)を提案する。
金融ニュースの理解を深めるために、事前訓練された言語モデルを使用します。
また, この問題を緩和するため, 核融合ヘッドの横にある一方向の頭部を保ちながら, 新たな異方性コントラストアライメントを提案する。
論文 参考訳(メタデータ) (2023-09-11T16:47:01Z) - Can ChatGPT Forecast Stock Price Movements? Return Predictability and Large Language Models [51.3422222472898]
ニュース見出しを用いて,ChatGPTのような大規模言語モデル(LLM)の株価変動を予測する能力について述べる。
我々は,情報容量制約,過小反応,制限対アビタージュ,LLMを組み込んだ理論モデルを構築した。
論文 参考訳(メタデータ) (2023-04-15T19:22:37Z) - InfoBERT: Improving Robustness of Language Models from An Information
Theoretic Perspective [84.78604733927887]
BERTのような大規模言語モデルは、幅広いNLPタスクで最先端のパフォーマンスを実現している。
近年の研究では、このようなBERTベースのモデルが、テキストの敵対的攻撃の脅威に直面していることが示されている。
本稿では,事前学習した言語モデルの堅牢な微調整のための新しい学習フレームワークであるInfoBERTを提案する。
論文 参考訳(メタデータ) (2020-10-05T20:49:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。