論文の概要: Mamba Outpaces Reformer in Stock Prediction with Sentiments from Top Ten LLMs
- arxiv url: http://arxiv.org/abs/2510.01203v1
- Date: Sun, 14 Sep 2025 16:36:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-06 05:29:07.836469
- Title: Mamba Outpaces Reformer in Stock Prediction with Sentiments from Top Ten LLMs
- Title(参考訳): マンバ株:上昇、株価予想上回る-トップ10LLMの感触で
- Authors: Lokesh Antony Kadiyala, Amir Mirzaeinia,
- Abstract要約: 本研究では,上位10大言語モデル(LLM)のセマンティック感情スコアを用いて,最小レベルの予測精度を向上させる新しいフレームワークを提案する。
われわれは、2025年4月4日から5月2日までのApple.comのニュース記事と1分間のApple.comの株価の時系列データセットを構築した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: The stock market is extremely difficult to predict in the short term due to high market volatility, changes caused by news, and the non-linear nature of the financial time series. This research proposes a novel framework for improving minute-level prediction accuracy using semantic sentiment scores from top ten different large language models (LLMs) combined with minute interval intraday stock price data. We systematically constructed a time-aligned dataset of AAPL news articles and 1-minute Apple Inc. (AAPL) stock prices for the dates of April 4 to May 2, 2025. The sentiment analysis was achieved using the DeepSeek-V3, GPT variants, LLaMA, Claude, Gemini, Qwen, and Mistral models through their APIs. Each article obtained sentiment scores from all ten LLMs, which were scaled to a [0, 1] range and combined with prices and technical indicators like RSI, ROC, and Bollinger Band Width. Two state-of-the-art such as Reformer and Mamba were trained separately on the dataset using the sentiment scores produced by each LLM as input. Hyper parameters were optimized by means of Optuna and were evaluated through a 3-day evaluation period. Reformer had mean squared error (MSE) or the evaluation metrics, and it should be noted that Mamba performed not only faster but also better than Reformer for every LLM across the 10 LLMs tested. Mamba performed best with LLaMA 3.3--70B, with the lowest error of 0.137. While Reformer could capture broader trends within the data, the model appeared to over smooth sudden changes by the LLMs. This study highlights the potential of integrating LLM-based semantic analysis paired with efficient temporal modeling to enhance real-time financial forecasting.
- Abstract(参考訳): 株式市場は、高い市場のボラティリティ、ニュースによる変化、金融時系列の非線形性により、短期的には予測が極めて困難である。
本研究は,トップ10大言語モデル(LLM)の感性スコアと時間内株価データを組み合わせて,最小レベルの予測精度を向上させるための新しいフレームワークを提案する。
2025年4月4日から5月2日までのAAPLニュース記事と1分間のアップル株の時系列データセットを体系的に構築した。
感情分析は、APIを通じてDeepSeek-V3、GPT、LLaMA、Claude、Gemini、Qwen、Mistralモデルを使用して達成された。
各記事は、[0, 1]の範囲に拡大され、RSI、ROC、Bollinger Band Widthといった価格と技術的指標と組み合わせられた10個のLDMから感情スコアを得た。
Reformer と Mamba の2つの最先端技術は,それぞれの LLM の感情スコアを入力として,データセット上で個別に訓練された。
ハイパーパラメータはオプトゥーナを用いて最適化され、3日間の評価期間を通じて評価された。
改革派は平均二乗誤差(MSE)または評価基準を有しており、Mambaは試験された10 LLMの全てのLSMに対して、より高速であるだけでなく、Reformersよりも優れていたことに注意する必要がある。
ガンバはLLaMA 3.3--70Bで最高の性能を示し、エラーは0.137である。
改革派はデータ内のより広範なトレンドをとらえることができたが、LLMによってスムーズな急激な変化が見られた。
本研究は、リアルタイム財務予測を強化するために、効率的な時間的モデリングと組み合わせたLLMに基づく意味分析を統合する可能性を強調した。
関連論文リスト
- Large Language Model Hacking: Quantifying the Hidden Risks of Using LLMs for Text Annotation [66.84286617519258]
大規模言語モデル(LLM)は、労働集約的なタスクの自動化を可能にすることによって、社会科学の研究を急速に変革している。
LLMの出力は、研究者による実装選択によって大きく異なる。
このようなバリエーションは、下流の分析に伝播する系統的なバイアスやランダムなエラーを導入し、タイプI、タイプII、タイプS、タイプMのエラーを引き起こす。
論文 参考訳(メタデータ) (2025-09-10T17:58:53Z) - Predictable Scale: Part II, Farseer: A Refined Scaling Law in Large Language Models [62.3458061002951]
本稿では,新たなスケール法であるFarseerを紹介した。
モデル損失曲面 $L(N,D)$ を体系的に構築することにより、Farseer は以前の法則よりも経験的データに非常によく適合する。
我々の手法は正確で頑健で、非常に一般化可能な予測をもたらし、優れた外挿能力を示す。
論文 参考訳(メタデータ) (2025-06-12T17:59:23Z) - Dynamic Uncertainty Ranking: Enhancing Retrieval-Augmented In-Context Learning for Long-Tail Knowledge in LLMs [50.29035873837]
大規模言語モデル(LLM)は、事前訓練中に多様なドメインから膨大な量の知識を学習することができる。
専門ドメインからの長い尾の知識は、しばしば不足し、表現されていないため、モデルの記憶にはほとんど現れない。
ICLの強化学習に基づく動的不確実性ランキング手法を提案する。
論文 参考訳(メタデータ) (2024-10-31T03:42:17Z) - AI in Investment Analysis: LLMs for Equity Stock Ratings [0.2916558661202724]
本稿では,Large Language Models (LLMs) のマルチ水平ストックレーティングへの適用について検討する。
本研究は、LLMを活用して株価評価の精度と一貫性を向上させることで、これらの課題に対処する。
提案手法は,フォワードリターンで評価した場合,従来の株価評価手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-10-30T15:06:57Z) - Enhancing Few-Shot Stock Trend Prediction with Large Language Models [9.439423168290011]
既存の手法は主に、広範囲な注釈付きデータに基づいてトレーニングされた教師付きモデルによる株価トレンドの予測に重点を置いている。
本稿では,ラベル付きデータの不足を克服するために,Large Language Models (LLM) を数ショットで使用することを提案する。
S&P500は66.59%、CSI-100は62.17%、HK株価予測は61.17%である。
論文 参考訳(メタデータ) (2024-07-12T05:43:11Z) - Temporal Scaling Law for Large Language Models [70.74571133406958]
本稿では,LLMの試験損失が,トレーニングステップのスケールアップとともにどのように進展するかを考察する,時間スケーリング法の概念を提案する。
テスト損失全体を粗い粒度でモデル化するのとは対照的に、私たちはそれを分解して、各トークン位置のきめ細かいテスト損失に飛び込みます。
動的双曲法則におけるパラメータの時間的パターンを研究することにより、より正確な時間的スケーリング法則を導出する。
論文 参考訳(メタデータ) (2024-04-27T05:49:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。