論文の概要: Realised Volatility Forecasting: Machine Learning via Financial Word
Embedding
- arxiv url: http://arxiv.org/abs/2108.00480v1
- Date: Sun, 1 Aug 2021 15:43:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-04 05:24:48.088707
- Title: Realised Volatility Forecasting: Machine Learning via Financial Word
Embedding
- Title(参考訳): 実現されたボラティリティ予測:金融用語埋め込みによる機械学習
- Authors: Eghbal Rahimikia, Stefan Zohren, Ser-Huang Poon
- Abstract要約: 我々は,Dow Jones Newswires Text News Feed Databaseを組み込んだ,最新かつ最先端の財務用語であるFinTextを開発した。
2007年7月27日から2016年11月18日にかけてのNASDAQ株23株のボラティリティ上昇日数では、機械学習モデルによるボラティリティ予測性能が大幅に向上した。
- 参考スコア(独自算出の注目度): 1.6114012813668934
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We develop FinText, a novel, state-of-the-art, financial word embedding from
Dow Jones Newswires Text News Feed Database. Incorporating this word embedding
in a machine learning model produces a substantial increase in volatility
forecasting performance on days with volatility jumps for 23 NASDAQ stocks from
27 July 2007 to 18 November 2016. A simple ensemble model, combining our word
embedding and another machine learning model that uses limit order book data,
provides the best forecasting performance for both normal and jump volatility
days. Finally, we use Integrated Gradients and SHAP (SHapley Additive
exPlanations) to make the results more 'explainable' and the model comparisons
more transparent.
- Abstract(参考訳): 我々は、dow jones newswiresのテキストニュースフィードデータベースから、最新の金融用語を埋め込んだfintextを開発した。
この単語を機械学習モデルに組み込むことで、2007年7月27日から2016年11月18日までの23株のボラティリティー上昇日におけるボラティリティ予測性能が大幅に向上した。
単語埋め込みとリミットオーダーブックデータを用いた別の機械学習モデルを組み合わせた単純なアンサンブルモデルにより、通常とジャンプの変動日の両方で最高の予測性能が得られる。
最後に,統合勾配とshap(shapley additive descriptions)を用いて,結果をより説明しやすくし,モデル比較をより透明にする。
関連論文リスト
- BreakGPT: Leveraging Large Language Models for Predicting Asset Price Surges [55.2480439325792]
本稿では,時系列予測や資産価格の急上昇の予測に特化して,新たな大規模言語モデル(LLM)アーキテクチャであるBreakGPTを紹介する。
我々は、最小限のトレーニングで財務予測を行うための有望なソリューションとしてBreakGPTを紹介し、局所的およびグローバルな時間的依存関係をキャプチャする強力な競合相手として紹介する。
論文 参考訳(メタデータ) (2024-11-09T05:40:32Z) - Context is Key: A Benchmark for Forecasting with Essential Textual Information [87.3175915185287]
コンテキスト・イズ・キー (Context is Key) (CiK) は、時系列予測ベンチマークであり、様々な種類のテキストコンテキストと数値データをペアリングする。
我々は,統計モデル,時系列基礎モデル,LLMに基づく予測モデルなど,さまざまなアプローチを評価する。
実験では、文脈情報の導入の重要性を強調し、LLMに基づく予測モデルを用いた場合の驚くべき性能を示すとともに、それらの重要な欠点を明らかにした。
論文 参考訳(メタデータ) (2024-10-24T17:56:08Z) - Harnessing Earnings Reports for Stock Predictions: A QLoRA-Enhanced LLM Approach [6.112119533910774]
本稿では、命令ベースの新しい手法と量子化低ランク適応(QLoRA)圧縮を組み合わせることで、LLM(Large Language Models)命令を微調整することで、高度なアプローチを提案する。
近年の市場指標やアナリストの成績等「外部要因」を統合して、リッチで教師付きデータセットを作成する。
この研究は、最先端のAIを微調整された財務データに統合する能力を実証するだけでなく、AI駆動の財務分析ツールを強化するための将来の研究の道を開く。
論文 参考訳(メタデータ) (2024-08-13T04:53:31Z) - Distilled ChatGPT Topic & Sentiment Modeling with Applications in
Finance [0.0]
ChatGPTは、容易に解釈可能な機能を生成する合理化モデルを作成するために利用される。
本稿では,知識の蒸留と伝達学習を融合させ,軽量な話題分類モデルと感情分類モデルを実現するためのトレーニングアプローチについて述べる。
論文 参考訳(メタデータ) (2024-03-04T16:27:21Z) - FinGPT: Instruction Tuning Benchmark for Open-Source Large Language
Models in Financial Datasets [9.714447724811842]
本稿では,オープンソースの大規模言語モデルに対して,インストラクションチューニングパラダイムに固有のアプローチを導入する。
私たちは、オープンソースのモデルの相互運用性に乗じて、シームレスで透過的な統合を確保します。
本稿では,エンドツーエンドのトレーニングとテストのためのベンチマーク手法を提案し,費用対効果を生かした。
論文 参考訳(メタデータ) (2023-10-07T12:52:58Z) - Incorporating Pre-trained Model Prompting in Multimodal Stock Volume
Movement Prediction [22.949484374773967]
本稿では,PromptをベースとしたMUltimodal Stock volumE予測モデル(ProMUSE)を提案する。
金融ニュースの理解を深めるために、事前訓練された言語モデルを使用します。
また, この問題を緩和するため, 核融合ヘッドの横にある一方向の頭部を保ちながら, 新たな異方性コントラストアライメントを提案する。
論文 参考訳(メタデータ) (2023-09-11T16:47:01Z) - Can ChatGPT Forecast Stock Price Movements? Return Predictability and Large Language Models [51.3422222472898]
ニュース見出しを用いて,ChatGPTのような大規模言語モデル(LLM)の株価変動を予測する能力について述べる。
我々は,情報容量制約,過小反応,制限対アビタージュ,LLMを組み込んだ理論モデルを構築した。
論文 参考訳(メタデータ) (2023-04-15T19:22:37Z) - Scaling Vision-Language Models with Sparse Mixture of Experts [128.0882767889029]
提案手法は, 等価計算コストの高密度モデルに対して, 様々なベンチマークにおいて, 最先端性能を実現することができることを示す。
我々の研究は、MoEモデルのトレーニングの安定化、モデル解釈可能性に対するMoEの影響の理解、ビジョン言語モデルをスケールする際の計算性能間のトレードオフのバランスに関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2023-03-13T16:00:31Z) - Better Language Model with Hypernym Class Prediction [101.8517004687825]
クラスベース言語モデル (LM) は、コンテキストの疎結合に$n$-gramのLMで対処するために長年開発されてきた。
本研究では,このアプローチをニューラルLMの文脈で再考する。
論文 参考訳(メタデータ) (2022-03-21T01:16:44Z) - Stock Embeddings: Learning Distributed Representations for Financial
Assets [11.67728795230542]
本稿では,過去のリターンデータのダイナミクスを利用する,ストック埋め込みのトレーニングのためのニューラルモデルを提案する。
当社のアプローチを詳細に説明し、金融分野で使用可能ないくつかの方法について論じる。
論文 参考訳(メタデータ) (2022-02-14T15:39:06Z) - Masked Language Modeling and the Distributional Hypothesis: Order Word
Matters Pre-training for Little [74.49773960145681]
マスク言語モデル(MLM)トレーニングの印象的なパフォーマンスの可能な説明は、そのようなモデルがNLPパイプラインで広く普及している構文構造を表現することを学びました。
本稿では,先行訓練がダウンストリームタスクでほぼ完全に成功する理由として,高次単語共起統計をモデル化できることを挙げる。
以上の結果から,純粋分布情報は,事前学習の成功を主に説明し,深い言語知識を必要とする難易度評価データセットのキュレーションの重要性を強調する。
論文 参考訳(メタデータ) (2021-04-14T06:30:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。