論文の概要: Unveiling the Potential of Sentiment: Can Large Language Models Predict
Chinese Stock Price Movements?
- arxiv url: http://arxiv.org/abs/2306.14222v1
- Date: Sun, 25 Jun 2023 12:08:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-27 16:14:31.426598
- Title: Unveiling the Potential of Sentiment: Can Large Language Models Predict
Chinese Stock Price Movements?
- Title(参考訳): 巨大言語モデルは中国の株価変動を予測できるのか?
- Authors: Haohan Zhang, Fengrui Hua, Chengjin Xu, Jian Guo, Hao Kong, Ruiting
Zuo
- Abstract要約: 大規模言語モデル(LLM)は、インフォメーションと高周波投資ポートフォリオ調整を容易にする感情要因を抽出することができる。
各種LLMの有効性を客観的に評価することを目的とした,ベンチマークおよび標準化されたバックテストフレームワークを提供する。
そこから得られた感情要素に基づいて、定量的なトレーディング戦略を構築し、現実的なトレーディングシナリオの下でバックテストを実施します。
- 参考スコア(独自算出の注目度): 7.449690856381202
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid advancement of Large Language Models (LLMs) has led to extensive
discourse regarding their potential to boost the return of quantitative stock
trading strategies. This discourse primarily revolves around harnessing the
remarkable comprehension capabilities of LLMs to extract sentiment factors
which facilitate informed and high-frequency investment portfolio adjustments.
To ensure successful implementations of these LLMs into the analysis of Chinese
financial texts and the subsequent trading strategy development within the
Chinese stock market, we provide a rigorous and encompassing benchmark as well
as a standardized back-testing framework aiming at objectively assessing the
efficacy of various types of LLMs in the specialized domain of sentiment factor
extraction from Chinese news text data. To illustrate how our benchmark works,
we reference three distinctive models: 1) the generative LLM (ChatGPT), 2) the
Chinese language-specific pre-trained LLM (Erlangshen-RoBERTa), and 3) the
financial domain-specific fine-tuned LLM classifier(Chinese FinBERT). We apply
them directly to the task of sentiment factor extraction from large volumes of
Chinese news summary texts. We then proceed to building quantitative trading
strategies and running back-tests under realistic trading scenarios based on
the derived sentiment factors and evaluate their performances with our
benchmark. By constructing such a comparative analysis, we invoke the question
of what constitutes the most important element for improving a LLM's
performance on extracting sentiment factors. And by ensuring that the LLMs are
evaluated on the same benchmark, following the same standardized experimental
procedures that are designed with sufficient expertise in quantitative trading,
we make the first stride toward answering such a question.
- Abstract(参考訳): 大規模言語モデル(llm)の急速な発展は、量的株式取引戦略の復活を促進する可能性に関する広範な議論につながった。
この談話は主に、LLMの顕著な理解能力を活用して、インフォメーションと高周波投資ポートフォリオ調整を容易にする感情要因を抽出することを中心に展開されている。
これらのllmを中国の金融文書の分析とその後の中国株式市場における取引戦略開発に成功させるために、中国ニューステキストデータから感情因子抽出の専門分野における様々なタイプのllmの有効性を客観的に評価するための、厳密で包括的なベンチマークおよび標準化されたバックテストフレームワークを提供する。
ベンチマークの仕組みを説明するために、3つの異なるモデルを紹介します。
1) 生成LDM(ChatGPT)
2)中国語固有の事前訓練LDM(Erlangshen-RoBERTa)及び
3)金融ドメイン固有の微調整LDM分類器(China FinBERT)。
本研究は,中国における大量のニュース要約テキストから感情因子を抽出する作業に直接適用する。
次に、得られた感情要因に基づいて、定量的なトレーディング戦略を構築し、現実的なトレーディングシナリオの下でバックテストを実施し、ベンチマークでそれらのパフォーマンスを評価する。
このような比較分析を構築することにより、感情要因抽出におけるLLMの性能向上の最も重要な要素は何かという疑問を提起する。
また,LLMが同一のベンチマークで評価されることを保証し,量的取引に十分な専門知識を備えた標準化された実験手順に従うことにより,このような質問に答える最初の試みを行う。
関連論文リスト
- TradExpert: Revolutionizing Trading with Mixture of Expert LLMs [25.243258134817054]
TradeExpertは、専門的な4つのLLMを使用して、専門家(MoE)のアプローチを組み合わせた、新しいフレームワークである。
実験の結果は、すべての取引シナリオにおいて、TradeExpertの優れたパフォーマンスを示しています。
論文 参考訳(メタデータ) (2024-10-16T20:24:16Z) - LLMFactor: Extracting Profitable Factors through Prompts for Explainable Stock Movement Prediction [5.519288891583653]
LLMFactorと呼ばれる新しいフレームワークを導入し、ストックムーブメントに影響を与える要因を特定する。
キーフレーズや感情分析に頼っていた従来の手法とは異なり、このアプローチは株式市場のダイナミクスとより直接的に関係する要因を抽出することに焦点を当てている。
当社の枠組みは,LCMに対して,包括的戦略を通じて背景知識の創出を指示し,関連ニュースから株価に影響を及ぼす潜在的な要因を識別する。
論文 参考訳(メタデータ) (2024-06-16T06:20:50Z) - Analyzing and Adapting Large Language Models for Few-Shot Multilingual
NLU: Are We There Yet? [82.02076369811402]
教師付きファインチューニング(SFT)、教師付きインストラクションチューニング(SIT)、インコンテキストラーニング(ICL)は、3つの代替であり、事実上の標準的アプローチである。
提案手法は,6つの高・低リソース言語,3つの異なるNLUタスク,多種多様な言語とドメインのセットアップを用いて,3つのアプローチを網羅的かつ体系的に比較する。
そこで本研究では,教師あり指導のチューニングが,性能とリソース要件の最良のトレードオフであることを示す。
論文 参考訳(メタデータ) (2024-03-04T10:48:13Z) - Learning to Generate Explainable Stock Predictions using Self-Reflective
Large Language Models [54.21695754082441]
説明可能なストック予測を生成するために,LLM(Large Language Models)を教えるフレームワークを提案する。
反射剤は自己推論によって過去の株価の動きを説明する方法を学ぶ一方、PPOトレーナーは最も可能性の高い説明を生成するためにモデルを訓練する。
我々のフレームワークは従来のディープラーニング法とLLM法の両方を予測精度とマシューズ相関係数で上回ることができる。
論文 参考訳(メタデータ) (2024-02-06T03:18:58Z) - Integrating Stock Features and Global Information via Large Language
Models for Enhanced Stock Return Prediction [5.762650600435391]
本稿では,大規模言語モデルと既存の定量的モデルを統合する上での課題を克服するために,2つのコンポーネントからなる新しいフレームワークを提案する。
我々はランク情報係数とリターンにおいて、特に中国A株市場における株価のみに依存したモデルと比較して、優れたパフォーマンスを示してきた。
論文 参考訳(メタデータ) (2023-10-09T11:34:18Z) - CMMLU: Measuring massive multitask language understanding in Chinese [133.70911295934746]
本稿では, 自然科学, 社会科学, 工学, 人文科学など, さまざまな分野をカバーする総合的な中国のベンチマークを紹介する。
CMMLUは、中国語の文脈における大きな言語モデルの知識と推論能力の評価におけるギャップを埋める。
論文 参考訳(メタデータ) (2023-06-15T15:49:51Z) - Sentiment Analysis in the Era of Large Language Models: A Reality Check [69.97942065617664]
本稿では,大規模言語モデル(LLM)の様々な感情分析タスクの実行能力について検討する。
26のデータセット上の13のタスクのパフォーマンスを評価し、ドメイン固有のデータセットに基づいて訓練された小言語モデル(SLM)と比較した。
論文 参考訳(メタデータ) (2023-05-24T10:45:25Z) - Introspective Tips: Large Language Model for In-Context Decision Making [48.96711664648164]
我々は,大規模言語モデル(LLM)の自己最適化を促進するために,イントロスペクティブティップス(Introspective Tips)を採用している。
本手法は,少数ショットとゼロショットの両方の学習状況において,エージェントの性能を向上させる。
TextWorldにおける100以上のゲームに関する実験は、我々のアプローチの優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-05-19T11:20:37Z) - Can ChatGPT Forecast Stock Price Movements? Return Predictability and Large Language Models [51.3422222472898]
ニュース見出しを用いて,ChatGPTのような大規模言語モデル(LLM)の株価変動を予測する能力について述べる。
我々は,情報容量制約,過小反応,制限対アビタージュ,LLMを組み込んだ理論モデルを構築した。
論文 参考訳(メタデータ) (2023-04-15T19:22:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。