論文の概要: A Hierarchical conv-LSTM and LLM Integrated Model for Holistic Stock Forecasting
- arxiv url: http://arxiv.org/abs/2410.12807v1
- Date: Mon, 30 Sep 2024 17:04:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-20 10:10:19.186065
- Title: A Hierarchical conv-LSTM and LLM Integrated Model for Holistic Stock Forecasting
- Title(参考訳): ホロスティックストック予測のための階層型conv-LSTMとLLM統合モデル
- Authors: Arya Chakraborty, Auhona Basu,
- Abstract要約: 本稿では,Large Language Model (LLM) と統合された新しい2レベル Conv-LSTM Neural Network を提案する。
第1段階では、歴史的株価と技術的指標の局所的なパターンを特定するために畳み込み層が使用され、続いてLSTM層が時間的ダイナミクスを捉えている。
第2のレベルは、感情や文脈情報をテキストデータから分析するLLMと出力を統合し、市場状況の全体像を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The financial domain presents a complex environment for stock market prediction, characterized by volatile patterns and the influence of multifaceted data sources. Traditional models have leveraged either Convolutional Neural Networks (CNN) for spatial feature extraction or Long Short-Term Memory (LSTM) networks for capturing temporal dependencies, with limited integration of external textual data. This paper proposes a novel Two-Level Conv-LSTM Neural Network integrated with a Large Language Model (LLM) for comprehensive stock advising. The model harnesses the strengths of Conv-LSTM for analyzing time-series data and LLM for processing and understanding textual information from financial news, social media, and reports. In the first level, convolutional layers are employed to identify local patterns in historical stock prices and technical indicators, followed by LSTM layers to capture the temporal dynamics. The second level integrates the output with an LLM that analyzes sentiment and contextual information from textual data, providing a holistic view of market conditions. The combined approach aims to improve prediction accuracy and provide contextually rich stock advising.
- Abstract(参考訳): 金融ドメインは、変動パターンと多面的データソースの影響を特徴とする、株式市場予測のための複雑な環境を提供する。
従来のモデルでは、空間的特徴抽出に畳み込みニューラルネットワーク(CNN)、時間的依存関係をキャプチャにLong Short-Term Memory(LSTM)ネットワークを利用する。
本稿では,Large Language Model (LLM) と統合された新しい2レベル Conv-LSTM Neural Network を提案する。
このモデルは、時系列データを解析するためのConv-LSTMの長所と、金融ニュース、ソーシャルメディア、レポートからのテキスト情報の処理と理解のためのLLMの長所を利用する。
第1段階では、歴史的株価と技術的指標の局所的なパターンを特定するために畳み込み層が使用され、続いてLSTM層が時間的ダイナミクスを捉えている。
第2のレベルは、感情や文脈情報をテキストデータから分析するLLMと出力を統合し、市場状況の全体像を提供する。
統合されたアプローチは、予測精度を改善し、コンテキストに富んだストックアドバイスを提供することを目的としている。
関連論文リスト
- Context is Key: A Benchmark for Forecasting with Essential Textual Information [87.3175915185287]
コンテキスト・イズ・キー (Context is Key) (CiK) は、時系列予測ベンチマークであり、様々な種類のテキストコンテキストと数値データをペアリングする。
我々は,統計モデル,時系列基礎モデル,LLMに基づく予測モデルなど,さまざまなアプローチを評価する。
実験では、文脈情報の導入の重要性を強調し、LLMに基づく予測モデルを用いた場合の驚くべき性能を示すとともに、それらの重要な欠点を明らかにした。
論文 参考訳(メタデータ) (2024-10-24T17:56:08Z) - All Against Some: Efficient Integration of Large Language Models for Message Passing in Graph Neural Networks [51.19110891434727]
事前訓練された知識と強力なセマンティック理解能力を持つ大規模言語モデル(LLM)は、最近、視覚とテキストデータを使用してアプリケーションに恩恵をもたらす顕著な能力を示している。
E-LLaGNNは、グラフから限られたノード数を増やして、グラフ学習のメッセージパッシング手順を強化するオンデマンドLLMサービスを備えたフレームワークである。
論文 参考訳(メタデータ) (2024-07-20T22:09:42Z) - NIFTY Financial News Headlines Dataset [14.622656548420073]
NIFTY Financial News Headlines データセットは,大規模言語モデル(LLM)を用いた金融市場予測の促進と進展を目的としている。
i) LLMの教師付き微調整(SFT)を目標とするNIFTY-LMと、(ii) NIFTY-RLと、(人からのフィードバックからの強化学習のような)アライメントメソッドに特化してフォーマットされたNIFTY-RLの2つの異なるモデルアプローチで構成されている。
論文 参考訳(メタデータ) (2024-05-16T01:09:33Z) - TPLLM: A Traffic Prediction Framework Based on Pretrained Large Language Models [27.306180426294784]
大規模言語モデル(LLM)を利用した新しい交通予測フレームワークであるTPLLMを紹介する。
本フレームワークでは,Lonal Neural Networks (LoCNNs) に基づくシーケンス埋め込み層と,Graph Contemporalal Networks (GCNs) に基づくグラフ埋め込み層を構築し,シーケンスの特徴と空間的特徴を抽出する。
実世界の2つのデータセットの実験では、フルサンプルと数ショットの予測シナリオの両方で、満足できるパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-03-04T17:08:57Z) - LLM Inference Unveiled: Survey and Roofline Model Insights [62.92811060490876]
大規模言語モデル(LLM)推論は急速に進化しており、機会と課題のユニークなブレンドを提示している。
本調査は, 研究状況を要約するだけでなく, 屋上モデルに基づく枠組みを導入することによって, 従来の文献レビューから際立っている。
このフレームワークは、ハードウェアデバイスにLSMをデプロイする際のボトルネックを特定し、実用上の問題を明確に理解する。
論文 参考訳(メタデータ) (2024-02-26T07:33:05Z) - Sparsity-Guided Holistic Explanation for LLMs with Interpretable
Inference-Time Intervention [53.896974148579346]
大規模言語モデル(LLM)は、様々な自然言語処理領域において前例のないブレークスルーを達成した。
LLMの謎的なブラックボックスの性質は、透過的で説明可能なアプリケーションを妨げる、解釈可能性にとって重要な課題である。
本稿では,LLMの全体的解釈を提供することを目的として,スポーシティ誘導技術に係わる新しい方法論を提案する。
論文 参考訳(メタデータ) (2023-12-22T19:55:58Z) - Integrating Stock Features and Global Information via Large Language
Models for Enhanced Stock Return Prediction [5.762650600435391]
本稿では,大規模言語モデルと既存の定量的モデルを統合する上での課題を克服するために,2つのコンポーネントからなる新しいフレームワークを提案する。
我々はランク情報係数とリターンにおいて、特に中国A株市場における株価のみに依存したモデルと比較して、優れたパフォーマンスを示してきた。
論文 参考訳(メタデータ) (2023-10-09T11:34:18Z) - Simultaneous Machine Translation with Large Language Models [51.470478122113356]
我々は,SimulMTタスクに大規模言語モデルを適用する可能性を検討する。
MUST-Cデータセットと異なる9言語でtextttLlama2-7b-chatモデルを用いて実験を行った。
その結果,LLM は BLEU と LAAL の指標で専用MT モデルよりも優れていた。
論文 参考訳(メタデータ) (2023-09-13T04:06:47Z) - Long Short-Term Memory Neural Network for Financial Time Series [0.0]
株価変動の予測のために,単体および並列長短期記憶ニューラルネットワークのアンサンブルを提案する。
ストレートなトレーディング戦略では、ランダムに選択されたポートフォリオと指数のすべての株を含むポートフォリオを比較すると、LSTMアンサンブルから得られたポートフォリオが平均的なリターンと時間とともに高い累積リターンを提供することを示している。
論文 参考訳(メタデータ) (2022-01-20T15:17:26Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - A Novel Ensemble Deep Learning Model for Stock Prediction Based on Stock
Prices and News [7.578363431637128]
本稿では、感情分析を用いて、複数のテキストデータソースから有用な情報を抽出し、将来のストックムーブメントを予測することを提案する。
ブレンディングアンサンブルモデルには、2つのレベルがある。第1レベルには、2つのリカレントニューラルネットワーク(RNN)、1つのLong-Short Term Memory Network(LSTM)、1つのGated Recurrent Units Network(GRU)が含まれる。
完全に接続されたニューラルネットワークは、予測精度をさらに向上するために、複数の個々の予測結果をアンサンブルするために使用される。
論文 参考訳(メタデータ) (2020-07-23T15:25:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。