論文の概要: BreakGPT: Leveraging Large Language Models for Predicting Asset Price Surges
- arxiv url: http://arxiv.org/abs/2411.06076v1
- Date: Sat, 09 Nov 2024 05:40:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-12 14:07:42.138695
- Title: BreakGPT: Leveraging Large Language Models for Predicting Asset Price Surges
- Title(参考訳): BreakGPT:アセット価格の急上昇を予測するために大規模言語モデルを活用する
- Authors: Aleksandr Simonyan,
- Abstract要約: 本稿では,時系列予測や資産価格の急上昇の予測に特化して,新たな大規模言語モデル(LLM)アーキテクチャであるBreakGPTを紹介する。
我々は、最小限のトレーニングで財務予測を行うための有望なソリューションとしてBreakGPTを紹介し、局所的およびグローバルな時間的依存関係をキャプチャする強力な競合相手として紹介する。
- 参考スコア(独自算出の注目度): 55.2480439325792
- License:
- Abstract: This paper introduces BreakGPT, a novel large language model (LLM) architecture adapted specifically for time series forecasting and the prediction of sharp upward movements in asset prices. By leveraging both the capabilities of LLMs and Transformer-based models, this study evaluates BreakGPT and other Transformer-based models for their ability to address the unique challenges posed by highly volatile financial markets. The primary contribution of this work lies in demonstrating the effectiveness of combining time series representation learning with LLM prediction frameworks. We showcase BreakGPT as a promising solution for financial forecasting with minimal training and as a strong competitor for capturing both local and global temporal dependencies.
- Abstract(参考訳): 本稿では,時系列予測や資産価格の急上昇の予測に特化して,新たな大規模言語モデル(LLM)アーキテクチャであるBreakGPTを紹介する。
LLMとTransformerベースのモデルの両方の能力を生かして、BreakGPTや他のTransformerベースのモデルを評価し、非常に不安定な金融市場がもたらす固有の課題に対処する能力について検討する。
この研究の主な貢献は、時系列表現学習とLLM予測フレームワークを組み合わせる効果を実証することにある。
我々は、最小限のトレーニングで財務予測を行うための有望なソリューションとしてBreakGPTを紹介し、局所的およびグローバルな時間的依存関係をキャプチャする強力な競合相手として紹介する。
関連論文リスト
- Context is Key: A Benchmark for Forecasting with Essential Textual Information [87.3175915185287]
コンテキスト・イズ・キー (Context is Key) (CiK) は、時系列予測ベンチマークであり、様々な種類のテキストコンテキストと数値データをペアリングする。
我々は,統計モデル,時系列基礎モデル,LLMに基づく予測モデルなど,さまざまなアプローチを評価する。
実験では、文脈情報の導入の重要性を強調し、LLMに基づく予測モデルを用いた場合の驚くべき性能を示すとともに、それらの重要な欠点を明らかにした。
論文 参考訳(メタデータ) (2024-10-24T17:56:08Z) - Harnessing Earnings Reports for Stock Predictions: A QLoRA-Enhanced LLM Approach [6.112119533910774]
本稿では、命令ベースの新しい手法と量子化低ランク適応(QLoRA)圧縮を組み合わせることで、LLM(Large Language Models)命令を微調整することで、高度なアプローチを提案する。
近年の市場指標やアナリストの成績等「外部要因」を統合して、リッチで教師付きデータセットを作成する。
この研究は、最先端のAIを微調整された財務データに統合する能力を実証するだけでなく、AI駆動の財務分析ツールを強化するための将来の研究の道を開く。
論文 参考訳(メタデータ) (2024-08-13T04:53:31Z) - Large Investment Model [7.712869313074975]
大規模投資モデル(Large Investment Model, LIM)は、大規模における性能と効率性の両方を高めるために設計された新しい研究パラダイムである。
LIMはエンド・ツー・エンドの学習とユニバーサル・モデリングを採用し、多様な財務データから包括的な信号パターンを自律的に学習できる上流基盤モデルを作成する。
論文 参考訳(メタデータ) (2024-08-12T05:15:13Z) - A Combination Model Based on Sequential General Variational Mode Decomposition Method for Time Series Prediction [11.11205499754577]
我々は、金融時系列を予測する非線形な方法で、新しいSGVMD-ARIMA組合せモデルを構築した。
予測区間内では,従来の分解予測群モデルよりも利点が向上した。
論文 参考訳(メタデータ) (2024-06-05T11:35:38Z) - ECC Analyzer: Extract Trading Signal from Earnings Conference Calls using Large Language Model for Stock Performance Prediction [7.358590821647365]
本研究は, 大規模言語モデル(LLM)を用いてECCからよりリッチで予測性の高いコンテンツを抽出する, textbfECC Analyzer という新しいフレームワークを紹介する。
我々は、事前訓練された大規模モデルを用いて、ECCからテキストや音声の特徴を抽出し、階層的な情報抽出戦略を実装し、よりきめ細かい情報を抽出する。
実験により,本モデルが従来の分析ベンチマークより優れていることが示された。
論文 参考訳(メタデータ) (2024-04-29T07:11:39Z) - Financial Time-Series Forecasting: Towards Synergizing Performance And
Interpretability Within a Hybrid Machine Learning Approach [2.0213537170294793]
本稿では、ハイブリッド機械学習アルゴリズムの比較研究を行い、モデル解釈可能性の向上に活用する。
本稿では,金融時系列予測において出現する潜伏関係や複雑なパターンの発掘を目的とした,分解,自己相関関数,指数的三重予測など,時系列統計の事前処理技術に関する体系的な概要を述べる。
論文 参考訳(メタデータ) (2023-12-31T16:38:32Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z) - Can ChatGPT Forecast Stock Price Movements? Return Predictability and Large Language Models [51.3422222472898]
ニュース見出しを用いて,ChatGPTのような大規模言語モデル(LLM)の株価変動を予測する能力について述べる。
我々は,情報容量制約,過小反応,制限対アビタージュ,LLMを組み込んだ理論モデルを構築した。
論文 参考訳(メタデータ) (2023-04-15T19:22:37Z) - Scaling Vision-Language Models with Sparse Mixture of Experts [128.0882767889029]
提案手法は, 等価計算コストの高密度モデルに対して, 様々なベンチマークにおいて, 最先端性能を実現することができることを示す。
我々の研究は、MoEモデルのトレーニングの安定化、モデル解釈可能性に対するMoEの影響の理解、ビジョン言語モデルをスケールする際の計算性能間のトレードオフのバランスに関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2023-03-13T16:00:31Z) - Low-Rank Temporal Attention-Augmented Bilinear Network for financial
time-series forecasting [93.73198973454944]
ディープラーニングモデルは、金融時系列データの予測問題など、さまざまな領域から来る多くの問題において、大幅なパフォーマンス改善をもたらしている。
近年,制限順序書の時系列予測の効率的かつ高性能なモデルとして,時間的注意強化バイリニアネットワークが提案されている。
本稿では,モデルの低ランクテンソル近似を提案し,トレーニング可能なパラメータの数をさらに削減し,その速度を向上する。
論文 参考訳(メタデータ) (2021-07-05T10:15:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。