論文の概要: Enhancing Few-Shot Stock Trend Prediction with Large Language Models
- arxiv url: http://arxiv.org/abs/2407.09003v1
- Date: Fri, 12 Jul 2024 05:43:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-16 00:36:46.078273
- Title: Enhancing Few-Shot Stock Trend Prediction with Large Language Models
- Title(参考訳): 大規模言語モデルによる株価変動予測の強化
- Authors: Yiqi Deng, Xingwei He, Jiahao Hu, Siu-Ming Yiu,
- Abstract要約: 既存の手法は主に、広範囲な注釈付きデータに基づいてトレーニングされた教師付きモデルによる株価トレンドの予測に重点を置いている。
本稿では,ラベル付きデータの不足を克服するために,Large Language Models (LLM) を数ショットで使用することを提案する。
S&P500は66.59%、CSI-100は62.17%、HK株価予測は61.17%である。
- 参考スコア(独自算出の注目度): 9.439423168290011
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The goal of stock trend prediction is to forecast future market movements for informed investment decisions. Existing methods mostly focus on predicting stock trends with supervised models trained on extensive annotated data. However, human annotation can be resource-intensive and the annotated data are not readily available. Inspired by the impressive few-shot capability of Large Language Models (LLMs), we propose using LLMs in a few-shot setting to overcome the scarcity of labeled data and make prediction more feasible to investors. Previous works typically merge multiple financial news for predicting stock trends, causing two significant problems when using LLMs: (1) Merged news contains noise, and (2) it may exceed LLMs' input limits, leading to performance degradation. To overcome these issues, we propose a two-step method 'denoising-then-voting'. Specifically, we introduce an `Irrelevant' category, and predict stock trends for individual news instead of merged news. Then we aggregate these predictions using majority voting. The proposed method offers two advantages: (1) Classifying noisy news as irrelevant removes its impact on the final prediction. (2) Predicting for individual news mitigates LLMs' input length limits. Our method achieves 66.59% accuracy in S&P 500, 62.17% in CSI-100, and 61.17% in HK stock prediction, outperforming the standard few-shot counterparts by around 7%, 4%, and 4%. Furthermore, our proposed method performs on par with state-of-the-art supervised methods.
- Abstract(参考訳): 株価トレンド予測の目標は、情報投資決定のための将来の市場の動きを予測することである。
既存の手法は主に、広範囲な注釈付きデータに基づいてトレーニングされた教師付きモデルによる株価トレンドの予測に重点を置いている。
しかし、人間のアノテーションはリソース集約的であり、注釈付きデータは簡単には利用できない。
LLM(Large Language Models)の印象的な数ショット機能に触発されて,ラベル付きデータの不足を克服し,投資家にとってより有益な予測を行うために,LLMを数ショット設定で使用することを提案する。
従来は複数の金融ニュースを合併して株価トレンドを予測し,(1)合併ニュースにはノイズが伴い,(2)LLMの入力限界を超え,性能が低下する2つの重大な問題を引き起こしていた。
これらの問題を克服するため、我々は2段階の「デノベーション・then-voting」手法を提案する。
具体的には、「関連性」カテゴリーを導入し、統合ニュースの代わりに個別ニュースの株価トレンドを予測する。
次に、多数決投票を用いてこれらの予測を集計する。
提案手法は, ノイズのあるニュースを無関係に分類し, 最終予測への影響を除去する2つの利点を提供する。
2)個人ニュースの予測はLLMの入力長制限を緩和する。
本手法は,S&P500の66.59%,CSI-100の62.17%,HK株の61.17%の精度を達成し,標準の少数ショットの約7%,4%,4%を上回った。
さらに,提案手法は最先端の教師付き手法と同等に動作する。
関連論文リスト
- Predicting Emergent Capabilities by Finetuning [98.9684114851891]
微調整された言語モデルでは,出現頻度の低いモデルに展開するスケーリングのポイントをシフトできることがわかった。
提案手法は4つの標準NLPベンチマークを用いて検証する。
いくつかのケースでは、最大4倍の計算でトレーニングされたモデルが出現したかどうかを正確に予測できる。
論文 参考訳(メタデータ) (2024-11-25T01:48:09Z) - Dynamic Uncertainty Ranking: Enhancing In-Context Learning for Long-Tail Knowledge in LLMs [50.29035873837]
大規模言語モデル(LLM)は、事前訓練中に多様なドメインから膨大な量の知識を学習することができる。
専門ドメインからの長い尾の知識は、しばしば不足し、表現されていないため、モデルの記憶にはほとんど現れない。
ICLの強化学習に基づく動的不確実性ランキング手法を提案する。
論文 参考訳(メタデータ) (2024-10-31T03:42:17Z) - AI in Investment Analysis: LLMs for Equity Stock Ratings [0.2916558661202724]
本稿では,Large Language Models (LLMs) のマルチ水平ストックレーティングへの適用について検討する。
本研究は、LLMを活用して株価評価の精度と一貫性を向上させることで、これらの課題に対処する。
提案手法は,フォワードリターンで評価した場合,従来の株価評価手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-10-30T15:06:57Z) - Harnessing Earnings Reports for Stock Predictions: A QLoRA-Enhanced LLM Approach [6.112119533910774]
本稿では、命令ベースの新しい手法と量子化低ランク適応(QLoRA)圧縮を組み合わせることで、LLM(Large Language Models)命令を微調整することで、高度なアプローチを提案する。
近年の市場指標やアナリストの成績等「外部要因」を統合して、リッチで教師付きデータセットを作成する。
この研究は、最先端のAIを微調整された財務データに統合する能力を実証するだけでなく、AI駆動の財務分析ツールを強化するための将来の研究の道を開く。
論文 参考訳(メタデータ) (2024-08-13T04:53:31Z) - An End-to-End Structure with Novel Position Mechanism and Improved EMD for Stock Forecasting [1.7044651160538948]
既存の研究は主に個々の株式情報に焦点を当てているが、株価情報や株価データの高ノイズを無視している。
本稿では,株式情報と個別株式情報の両方を考慮に入れた注目機構を用いた新しい手法を提案する。
論文 参考訳(メタデータ) (2024-03-25T15:23:22Z) - Adaptation with Self-Evaluation to Improve Selective Prediction in LLMs [56.526095828316386]
大規模言語モデル(LLM)の選択予測性能を改善するために,自己評価による適応のための新しいフレームワークを提案する。
提案手法は,様々な質問応答(QA)データセット上で評価し,最先端の選択的予測手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-10-18T03:34:59Z) - Diffusion Variational Autoencoder for Tackling Stochasticity in
Multi-Step Regression Stock Price Prediction [54.21695754082441]
長期的地平線上での多段階の株価予測は、ボラティリティの予測に不可欠である。
多段階の株価予測に対する現在の解決策は、主に単一段階の分類に基づく予測のために設計されている。
深層階層型変分オートコーダ(VAE)と拡散確率的手法を組み合わせてセック2seqの株価予測を行う。
本モデルでは, 予測精度と分散性の観点から, 最先端の解よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-18T16:21:15Z) - Can ChatGPT Forecast Stock Price Movements? Return Predictability and Large Language Models [51.3422222472898]
ニュース見出しを用いて,ChatGPTのような大規模言語モデル(LLM)の株価変動を予測する能力について述べる。
我々は,情報容量制約,過小反応,制限対アビタージュ,LLMを組み込んだ理論モデルを構築した。
論文 参考訳(メタデータ) (2023-04-15T19:22:37Z) - Taming Overconfident Prediction on Unlabeled Data from Hindsight [50.9088560433925]
ラベルのないデータに対する予測の不確実性を最小化することは、半教師付き学習において優れた性能を達成するための鍵となる要素である。
本稿では,アダプティブシャーニング(Adaptive Sharpening, ADS)と呼ばれる2つのメカニズムを提案する。
ADSは、プラグインにすることで最先端のSSLメソッドを大幅に改善する。
論文 参考訳(メタデータ) (2021-12-15T15:17:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。