論文の概要: Temporal Data Meets LLM -- Explainable Financial Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2306.11025v1
- Date: Mon, 19 Jun 2023 15:42:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-21 17:09:11.649484
- Title: Temporal Data Meets LLM -- Explainable Financial Time Series Forecasting
- Title(参考訳): テンポラルデータとLCM-説明可能な金融時系列予測
- Authors: Xinli Yu, Zheng Chen, Yuan Ling, Shujing Dong, Zongyi Liu, Yanbin Lu
- Abstract要約: 我々はNASDAQ-100株に重点を置いており、公開アクセス可能な歴史的株価データ、企業のメタデータ、歴史的経済・金融ニュースを活用している。
我々は,Open-LLaMA などの公開 LLM を微調整した上で,説明可能な予測を生成するための命令を理解することができることを示す。
- 参考スコア(独自算出の注目度): 7.485041391778341
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper presents a novel study on harnessing Large Language Models' (LLMs)
outstanding knowledge and reasoning abilities for explainable financial time
series forecasting. The application of machine learning models to financial
time series comes with several challenges, including the difficulty in
cross-sequence reasoning and inference, the hurdle of incorporating multi-modal
signals from historical news, financial knowledge graphs, etc., and the issue
of interpreting and explaining the model results. In this paper, we focus on
NASDAQ-100 stocks, making use of publicly accessible historical stock price
data, company metadata, and historical economic/financial news. We conduct
experiments to illustrate the potential of LLMs in offering a unified solution
to the aforementioned challenges. Our experiments include trying
zero-shot/few-shot inference with GPT-4 and instruction-based fine-tuning with
a public LLM model Open LLaMA. We demonstrate our approach outperforms a few
baselines, including the widely applied classic ARMA-GARCH model and a
gradient-boosting tree model. Through the performance comparison results and a
few examples, we find LLMs can make a well-thought decision by reasoning over
information from both textual news and price time series and extracting
insights, leveraging cross-sequence information, and utilizing the inherent
knowledge embedded within the LLM. Additionally, we show that a publicly
available LLM such as Open-LLaMA, after fine-tuning, can comprehend the
instruction to generate explainable forecasts and achieve reasonable
performance, albeit relatively inferior in comparison to GPT-4.
- Abstract(参考訳): 本稿では,Large Language Models (LLM) の卓越した知識と推論能力を利用した財務時系列予測手法を提案する。
金融時系列への機械学習モデルの応用には、クロスシーケンス推論と推論の難しさ、歴史ニュースからのマルチモーダル信号を取り込むことの難しさ、財務知識グラフなど、モデル結果の解釈と説明の問題など、いくつかの課題がある。
本稿では,NASDAQ-100の株価データ,企業メタデータ,歴史経済・金融ニュースを活用したNASDAQ-100株に着目した。
上記の課題に対する統一的な解決策を提供する上で, LLM の可能性を示す実験を行う。
実験では, GPT-4を用いたゼロショット/ファウショット推論や, 公開LLMモデルOpen LLaMAによる命令ベース微調整などを行った。
従来のarma-garchモデルや勾配ブースティングツリーモデルなど,いくつかのベースラインよりも優れたアプローチを示す。
性能比較結果といくつかの例から、LLMはテキストニュースと価格時系列の両方の情報を引き合いに出し、洞察を抽出し、クロスシーケンス情報を活用し、LLMに埋め込まれた固有の知識を活用することで、十分な判断を下すことができる。
さらに,open-llamaなどの公開llmでは,gpt-4と比較して比較的劣っているものの,説明可能な予測を生成し,合理的な性能を実現するための指示を理解可能であることを示す。
関連論文リスト
- LLMFactor: Extracting Profitable Factors through Prompts for Explainable Stock Movement Prediction [5.519288891583653]
LLMFactorと呼ばれる新しいフレームワークを導入し、ストックムーブメントに影響を与える要因を特定する。
キーフレーズや感情分析に頼っていた従来の手法とは異なり、このアプローチは株式市場のダイナミクスとより直接的に関係する要因を抽出することに焦点を当てている。
当社の枠組みは,LCMに対して,包括的戦略を通じて背景知識の創出を指示し,関連ニュースから株価に影響を及ぼす潜在的な要因を識別する。
論文 参考訳(メタデータ) (2024-06-16T06:20:50Z) - AlphaFin: Benchmarking Financial Analysis with Retrieval-Augmented Stock-Chain Framework [48.3060010653088]
我々はAlphaFinデータセットをリリースし、従来の研究データセット、リアルタイム財務データ、手書きのチェーン・オブ・プリート(CoT)データを組み合わせています。
次に、AlphaFinデータセットを使用して、金融分析タスクを効果的に処理するために、Stock-Chainと呼ばれる最先端の手法をベンチマークします。
論文 参考訳(メタデータ) (2024-03-19T09:45:33Z) - Small Models, Big Insights: Leveraging Slim Proxy Models To Decide When and What to Retrieve for LLMs [60.40396361115776]
本稿では,スリムプロキシモデルを用いた大規模言語モデル (LLM) における知識不足を検知する新しい協調手法であるSlimPLMを提案する。
パラメータがはるかに少ないプロキシモデルを採用し、回答を回答としています。
ヒューリスティックな回答は、LLM内の既知の未知の知識と同様に、ユーザの質問に答えるために必要な知識を予測するのに使用される。
論文 参考訳(メタデータ) (2024-02-19T11:11:08Z) - Learning to Generate Explainable Stock Predictions using Self-Reflective
Large Language Models [54.21695754082441]
説明可能なストック予測を生成するために,LLM(Large Language Models)を教えるフレームワークを提案する。
反射剤は自己推論によって過去の株価の動きを説明する方法を学ぶ一方、PPOトレーナーは最も可能性の高い説明を生成するためにモデルを訓練する。
我々のフレームワークは従来のディープラーニング法とLLM法の両方を予測精度とマシューズ相関係数で上回ることができる。
論文 参考訳(メタデータ) (2024-02-06T03:18:58Z) - Rethinking Interpretability in the Era of Large Language Models [76.1947554386879]
大規模言語モデル(LLM)は、幅広いタスクにまたがる顕著な機能を示している。
自然言語で説明できる能力により、LLMは人間に与えられるパターンのスケールと複雑さを拡大することができる。
これらの新しい機能は、幻覚的な説明や膨大な計算コストなど、新しい課題を提起する。
論文 参考訳(メタデータ) (2024-01-30T17:38:54Z) - Chain of History: Learning and Forecasting with LLMs for Temporal
Knowledge Graph Completion [24.545917737620197]
時間知識グラフ補完(TKGC)は、将来のタイムスタンプにおけるイベントリンクの欠落を予測する複雑なタスクである。
本稿では,時間的知識グラフの推論において,大規模言語モデルの利点を活用するための総合的な視点を提供することを目的とする。
論文 参考訳(メタデータ) (2024-01-11T17:42:47Z) - Enhancing Financial Sentiment Analysis via Retrieval Augmented Large
Language Models [11.154814189699735]
大規模な言語モデル (LLM) は様々なNLPタスクにおいて優れた性能を示した。
本稿では,金融感情分析のためのLLMフレームワークを提案する。
提案手法の精度は15%から48%向上し,F1得点を得た。
論文 参考訳(メタデータ) (2023-10-06T05:40:23Z) - PIXIU: A Large Language Model, Instruction Data and Evaluation Benchmark
for Finance [63.51545277822702]
PIXIUは、命令データ付き微調整LLaMAに基づく最初の金融大規模言語モデル(LLM)を含む包括的なフレームワークである。
我々はLLaMAを細調整してFinMAを提案する。
我々は、FinMAと既存のLLMを詳細に分析し、重要な財政課題に対処する際の長所と短所を明らかにする。
論文 参考訳(メタデータ) (2023-06-08T14:20:29Z) - Can ChatGPT Forecast Stock Price Movements? Return Predictability and Large Language Models [51.3422222472898]
ニュース見出しを用いて,ChatGPTのような大規模言語モデル(LLM)の株価変動を予測する能力について述べる。
我々は,情報容量制約,過小反応,制限対アビタージュ,LLMを組み込んだ理論モデルを構築した。
論文 参考訳(メタデータ) (2023-04-15T19:22:37Z) - What do LLMs Know about Financial Markets? A Case Study on Reddit Market
Sentiment Analysis [15.195505464654493]
ソーシャルメディアコンテンツに対する市場の感情分析には、金融市場とソーシャルメディアのジャーゴンの両方の知識が必要である。
我々のパイプラインは、大きな言語モデル(LLM)を用いたReddit投稿の弱い財務感情ラベルを生成する。
少数のプロンプトだけで、最終モデルは既存の教師付きモデルと同等に実行される。
論文 参考訳(メタデータ) (2022-12-21T19:11:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。