論文の概要: Context-Aware Language Models for Forecasting Market Impact from Sequences of Financial News
- arxiv url: http://arxiv.org/abs/2509.12519v1
- Date: Mon, 15 Sep 2025 23:51:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:52.811901
- Title: Context-Aware Language Models for Forecasting Market Impact from Sequences of Financial News
- Title(参考訳): 金融ニュースの時系列から市場への影響を予測するための文脈対応言語モデル
- Authors: Ross Koval, Nicholas Andrews, Xifeng Yan,
- Abstract要約: 我々は、金融ニュースの市場への影響を理解するために、大規模言語モデルの能力において、歴史的文脈の価値を探求する。
本稿では,大容量のLMを主記事の処理に用い,その一方で,小型のLMは歴史的文脈を簡潔な要約埋め込みにエンコードする手法を提案する。
- 参考スコア(独自算出の注目度): 18.185361179633553
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Financial news plays a critical role in the information diffusion process in financial markets and is a known driver of stock prices. However, the information in each news article is not necessarily self-contained, often requiring a broader understanding of the historical news coverage for accurate interpretation. Further, identifying and incorporating the most relevant contextual information presents significant challenges. In this work, we explore the value of historical context in the ability of large language models to understand the market impact of financial news. We find that historical context provides a consistent and significant improvement in performance across methods and time horizons. To this end, we propose an efficient and effective contextualization method that uses a large LM to process the main article, while a small LM encodes the historical context into concise summary embeddings that are then aligned with the large model's representation space. We explore the behavior of the model through multiple qualitative and quantitative interpretability tests and reveal insights into the value of contextualization. Finally, we demonstrate that the value of historical context in model predictions has real-world applications, translating to substantial improvements in simulated investment performance.
- Abstract(参考訳): 金融ニュースは金融市場の情報拡散プロセスにおいて重要な役割を担い、株価の先駆者として知られる。
しかし、各ニュース記事の情報は必ずしも自己完結的ではなく、しばしば正確な解釈のために歴史ニュースの報道を広く理解する必要がある。
さらに、最も関連性の高い文脈情報を特定し、組み込むことは、重大な課題を提示する。
本研究では,金融ニュースの市場への影響を理解するために,大規模言語モデルにおける歴史的文脈の価値を検討する。
歴史的コンテキストは、メソッドや時間的地平線を越えたパフォーマンスの一貫性と大幅な改善をもたらします。
そこで本研究では,大容量のLMを用いて主記事を処理する手法を提案する。一方,小型のLMでは歴史的コンテキストを簡潔な要約埋め込みに符号化し,大容量モデルの表現空間に整合させる。
複数の質的、定量的な解釈可能性テストを通してモデルの振る舞いを探索し、文脈化の価値に関する洞察を明らかにする。
最後に、モデル予測における歴史的文脈の価値は、実世界の応用であり、シミュレーションされた投資実績が大幅に改善されることを実証する。
関連論文リスト
- Context is Key: A Benchmark for Forecasting with Essential Textual Information [87.3175915185287]
コンテキスト is Key" (CiK) は、数値データを多種多様なテキストコンテキストと組み合わせた予測ベンチマークである。
我々は,統計モデル,時系列基礎モデル,LLMに基づく予測モデルなど,さまざまなアプローチを評価する。
提案手法は,提案するベンチマークにおいて,他の試験手法よりも優れる簡易かつ効果的なLCMプロンプト法である。
論文 参考訳(メタデータ) (2024-10-24T17:56:08Z) - Context Matters: Leveraging Contextual Features for Time Series Forecasting [2.9687381456164004]
既存の予測モデルにマルチモーダルなコンテキスト情報を外科的に統合する新しいプラグイン・アンド・プレイ手法であるContextFormerを導入する。
ContextFormerは、カテゴリ、連続、時間変化、さらにはテキスト情報を含む、リッチなマルチモーダルコンテキストから予測固有の情報を効果的に蒸留する。
エネルギー、交通、環境、金融ドメインにまたがるさまざまな実世界のデータセットにおいて、SOTA予測モデルを最大30%上回ります。
論文 参考訳(メタデータ) (2024-10-16T15:36:13Z) - Can ChatGPT Forecast Stock Price Movements? Return Predictability and Large Language Models [51.3422222472898]
ニュース見出しを用いて,ChatGPTのような大規模言語モデル(LLM)の株価変動を予測する能力について述べる。
我々は,情報容量制約,過小反応,制限対アビタージュ,LLMを組み込んだ理論モデルを構築した。
論文 参考訳(メタデータ) (2023-04-15T19:22:37Z) - Large Language Models with Controllable Working Memory [64.71038763708161]
大規模言語モデル(LLM)は、自然言語処理(NLP)の一連のブレークスルーをもたらした。
これらのモデルをさらに切り離すのは、事前訓練中に内在する膨大な量の世界的知識だ。
モデルの世界知識が、文脈で提示された事実情報とどのように相互作用するかは、まだ解明されていない。
論文 参考訳(メタデータ) (2022-11-09T18:58:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。