論文の概要: RETuning: Upgrading Inference-Time Scaling for Stock Movement Prediction with Large Language Models
- arxiv url: http://arxiv.org/abs/2510.21604v1
- Date: Fri, 24 Oct 2025 16:08:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 09:00:15.537783
- Title: RETuning: Upgrading Inference-Time Scaling for Stock Movement Prediction with Large Language Models
- Title(参考訳): RETuning:大規模言語モデルを用いたストックムーブメント予測のためのアップグレード推論時間スケーリング
- Authors: Xueyuan Lin, Cehao Yang, Ye Ma, Ming Li, Rongjunchen Zhang, Yang Ni, Xiaojun Wu, Chengjin Xu, Jian Guo, Hui Xiong,
- Abstract要約: 本研究では,大規模言語モデル(LLM)が,体系的かつ独立した分析論理(CoT)を示すのではなく,アナリストの意見に従うことを観察し,三クラス分類問題(アップ,ホールド,ダウン)を考察する。
本稿では,強化学習に先立つ冷間開始法である反射エビデンスチューニング(RETuning)を提案し,予測能力を向上する。
2024年全体の5,123件のAシェアストックに、長いコンテキスト(32Kトークン)と200K以上のサンプルを備えた大規模なデータセットを構築しています。
- 参考スコア(独自算出の注目度): 37.97736341087795
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recently, large language models (LLMs) have demonstrated outstanding reasoning capabilities on mathematical and coding tasks. However, their application to financial tasks-especially the most fundamental task of stock movement prediction-remains underexplored. We study a three-class classification problem (up, hold, down) and, by analyzing existing reasoning responses, observe that: (1) LLMs follow analysts' opinions rather than exhibit a systematic, independent analytical logic (CoTs). (2) LLMs list summaries from different sources without weighing adversarial evidence, yet such counterevidence is crucial for reliable prediction. It shows that the model does not make good use of its reasoning ability to complete the task. To address this, we propose Reflective Evidence Tuning (RETuning), a cold-start method prior to reinforcement learning, to enhance prediction ability. While generating CoT, RETuning encourages dynamically constructing an analytical framework from diverse information sources, organizing and scoring evidence for price up or down based on that framework-rather than on contextual viewpoints-and finally reflecting to derive the prediction. This approach maximally aligns the model with its learned analytical framework, ensuring independent logical reasoning and reducing undue influence from context. We also build a large-scale dataset spanning all of 2024 for 5,123 A-share stocks, with long contexts (32K tokens) and over 200K samples. In addition to price and news, it incorporates analysts' opinions, quantitative reports, fundamental data, macroeconomic indicators, and similar stocks. Experiments show that RETuning successfully unlocks the model's reasoning ability in the financial domain. Inference-time scaling still works even after 6 months or on out-of-distribution stocks, since the models gain valuable insights about stock movement prediction.
- Abstract(参考訳): 近年,大規模言語モデル (LLM) は数学およびコーディングタスクにおいて顕著な推論能力を示した。
しかし、金融業務、特にストックムーブメント予測の最も基本的な課題への応用は、未調査のままであった。
既存の推論応答を解析することにより,(1) LLMは,体系的かつ独立した分析論理(CoT)を示すのではなく,アナリストの意見に従う。
2) LLMは, 敵対的証拠を重んじることなく, 異なる情報源からの要約をリストアップするが, 確実な予測にはそのような反証が不可欠である。
モデルがタスクを完了させる推論能力をうまく利用していないことを示している。
そこで本研究では,強化学習に先立つ冷間開始法であるReflective Evidence Tuning(RETuning)を提案する。
CoTを生成する一方で、RETuningは多様な情報ソースから分析フレームワークを動的に構築し、そのフレームワークに基づいて価格の上昇または下降の証拠を整理し、評価し、最終的に予測を導出することを推奨する。
このアプローチはモデルと学習した分析フレームワークを最大限に整合させ、独立した論理的推論を確実にし、文脈から不適切な影響を減らす。
また、2024年全体の5,123件のAシェアストックに、長いコンテキスト(32Kトークン)と200K以上のサンプルを含む大規模なデータセットを構築しています。
価格とニュースに加えて、アナリストの意見、量的報告、基本データ、マクロ経済指標、および類似の株式が組み込まれている。
実験の結果、RETuningは金融ドメインにおけるモデルの推論能力をうまく解き放ちます。
予測時間のスケーリングは、株価の動き予測に関する貴重な洞察を得るため、6カ月後や流通外株でも引き続き機能する。
関連論文リスト
- Your AI, Not Your View: The Bias of LLMs in Investment Analysis [62.388554963415906]
金融において、Large Language Models (LLMs) は、事前訓練されたパラメトリック知識とリアルタイム市場データとの相違から生じる、頻繁な知識紛争に直面している。
これらの対立は、モデル固有のバイアスが制度的目的と誤認される現実世界の投資サービスにおいて特に問題となる。
本研究では,このような紛争シナリオにおける創発的行動を調べるための実験的枠組みを提案し,投資分析におけるバイアスの定量的分析を行う。
論文 参考訳(メタデータ) (2025-07-28T16:09:38Z) - Context is Key: A Benchmark for Forecasting with Essential Textual Information [87.3175915185287]
コンテキスト is Key" (CiK) は、数値データを多種多様なテキストコンテキストと組み合わせた予測ベンチマークである。
我々は,統計モデル,時系列基礎モデル,LLMに基づく予測モデルなど,さまざまなアプローチを評価する。
提案手法は,提案するベンチマークにおいて,他の試験手法よりも優れる簡易かつ効果的なLCMプロンプト法である。
論文 参考訳(メタデータ) (2024-10-24T17:56:08Z) - Harnessing Earnings Reports for Stock Predictions: A QLoRA-Enhanced LLM Approach [6.112119533910774]
本稿では、命令ベースの新しい手法と量子化低ランク適応(QLoRA)圧縮を組み合わせることで、LLM(Large Language Models)命令を微調整することで、高度なアプローチを提案する。
近年の市場指標やアナリストの成績等「外部要因」を統合して、リッチで教師付きデータセットを作成する。
この研究は、最先端のAIを微調整された財務データに統合する能力を実証するだけでなく、AI駆動の財務分析ツールを強化するための将来の研究の道を開く。
論文 参考訳(メタデータ) (2024-08-13T04:53:31Z) - ECC Analyzer: Extract Trading Signal from Earnings Conference Calls using Large Language Model for Stock Performance Prediction [7.358590821647365]
本研究は, 大規模言語モデル(LLM)を用いてECCからよりリッチで予測性の高いコンテンツを抽出する, textbfECC Analyzer という新しいフレームワークを紹介する。
我々は、事前訓練された大規模モデルを用いて、ECCからテキストや音声の特徴を抽出し、階層的な情報抽出戦略を実装し、よりきめ細かい情報を抽出する。
実験により,本モデルが従来の分析ベンチマークより優れていることが示された。
論文 参考訳(メタデータ) (2024-04-29T07:11:39Z) - Ploutos: Towards interpretable stock movement prediction with financial
large language model [43.51934592920784]
PloutosはPloutosGenとPloutosGPTで構成される新しい金融フレームワークである。
PloutosGenには、テキストや数値など、さまざまなモーダルデータを分析し、異なる観点から定量的戦略を提供する、複数の主要な専門家が含まれている。
PloutosGPTのトレーニング戦略は、GPT-4を誘導して合理性を生成するリアビューミラープロンプト機構と、LLMを微調整するための動的トークン重み付け機構を活用する。
論文 参考訳(メタデータ) (2024-02-18T10:28:18Z) - Can ChatGPT Forecast Stock Price Movements? Return Predictability and Large Language Models [51.3422222472898]
ニュース見出しを用いて,ChatGPTのような大規模言語モデル(LLM)の株価変動を予測する能力について述べる。
我々は,情報容量制約,過小反応,制限対アビタージュ,LLMを組み込んだ理論モデルを構築した。
論文 参考訳(メタデータ) (2023-04-15T19:22:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。