論文の概要: EUR/USD Exchange Rate Forecasting incorporating Text Mining Based on Pre-trained Language Models and Deep Learning Methods
- arxiv url: http://arxiv.org/abs/2411.07560v1
- Date: Tue, 12 Nov 2024 05:28:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-13 13:20:40.565542
- Title: EUR/USD Exchange Rate Forecasting incorporating Text Mining Based on Pre-trained Language Models and Deep Learning Methods
- Title(参考訳): 事前学習言語モデルとディープラーニングに基づくテキストマイニングを用いたEUR/USD交換レート予測
- Authors: Xiangyu Shi, Hongcheng Ding, Salaar Faroog, Deshinta Arrova Dewi, Shamsul Nahar Abdullah, Bahiah A Malek,
- Abstract要約: 本研究では,深層学習,テキスト解析,粒子群最適化(PSO)を統合したEUR/USD交換レート予測の新しい手法を提案する。
オンラインニュースや分析テキストを定性的データとして組み込むことにより,提案したPSO-LSTMモデルは従来のエコノメトリや機械学習モデルよりも優れた性能を示す。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This study introduces a novel approach for EUR/USD exchange rate forecasting that integrates deep learning, textual analysis, and particle swarm optimization (PSO). By incorporating online news and analysis texts as qualitative data, the proposed PSO-LSTM model demonstrates superior performance compared to traditional econometric and machine learning models. The research employs advanced text mining techniques, including sentiment analysis using the RoBERTa-Large model and topic modeling with LDA. Empirical findings underscore the significant advantage of incorporating textual data, with the PSO-LSTM model outperforming benchmark models such as SVM, SVR, ARIMA, and GARCH. Ablation experiments reveal the contribution of each textual data category to the overall forecasting performance. The study highlights the transformative potential of artificial intelligence in finance and paves the way for future research in real-time forecasting and the integration of alternative data sources.
- Abstract(参考訳): 本研究では,深層学習,テキスト解析,粒子群最適化(PSO)を統合したEUR/USD交換レート予測手法を提案する。
オンラインニュースや分析テキストを定性的データとして組み込むことにより,提案したPSO-LSTMモデルは従来のエコノメトリや機械学習モデルよりも優れた性能を示す。
この研究は、RoBERTa-Largeモデルを用いた感情分析やLDAを用いたトピックモデリングなど、高度なテキストマイニング技術を採用している。
PSO-LSTMモデルは、SVM、SVR、ARIMA、GARCHといったベンチマークモデルよりも優れている。
アブレーション実験では、各テキストデータカテゴリが全体の予測性能に寄与することを明らかにする。
この研究は、金融における人工知能の変革の可能性を強調し、リアルタイム予測と代替データソースの統合における将来の研究の道を開く。
関連論文リスト
- Context is Key: A Benchmark for Forecasting with Essential Textual Information [87.3175915185287]
コンテキスト・イズ・キー (Context is Key) (CiK) は、時系列予測ベンチマークであり、様々な種類のテキストコンテキストと数値データをペアリングする。
我々は,統計モデル,時系列基礎モデル,LLMに基づく予測モデルなど,さまざまなアプローチを評価する。
実験では、文脈情報の導入の重要性を強調し、LLMに基づく予測モデルを用いた場合の驚くべき性能を示すとともに、それらの重要な欠点を明らかにした。
論文 参考訳(メタデータ) (2024-10-24T17:56:08Z) - A Hierarchical conv-LSTM and LLM Integrated Model for Holistic Stock Forecasting [0.0]
本稿では,Large Language Model (LLM) と統合された新しい2レベル Conv-LSTM Neural Network を提案する。
第1段階では、歴史的株価と技術的指標の局所的なパターンを特定するために畳み込み層が使用され、続いてLSTM層が時間的ダイナミクスを捉えている。
第2のレベルは、感情や文脈情報をテキストデータから分析するLLMと出力を統合し、市場状況の全体像を提供する。
論文 参考訳(メタデータ) (2024-09-30T17:04:42Z) - EUR-USD Exchange Rate Forecasting Based on Information Fusion with Large Language Models and Deep Learning Methods [0.0]
本稿では、ニュースや分析からの非構造化テキストデータを交換レートや財務指標に関する構造化データと統合する新しいフレームワークIUSを提案する。
次に、オプトゥーナ最適化Bi-LSTMモデルを用いて、EUR/USD交換レートを予測する。
実験の結果、提案手法はベンチマークモデルを上回る性能を示し、MAEを10.69%、RMSEを9.56%削減した。
論文 参考訳(メタデータ) (2024-08-23T16:46:36Z) - Unveiling the Flaws: Exploring Imperfections in Synthetic Data and Mitigation Strategies for Large Language Models [89.88010750772413]
大規模言語モデル(LLM)の学習における高品質なデータ不足問題に対する解決法として,合成データを提案する。
我々の研究は、Q-A(Q-A)ペア、一般的な合成データに関連するこれらの特定の欠陥を掘り下げ、これらの欠陥を軽減するための未学習技術に基づく方法を提案する。
我々の研究は、より堅牢で効率的なLLMトレーニングを促進することを目的として、合成データの効果的な利用に関する重要な洞察を得た。
論文 参考訳(メタデータ) (2024-06-18T08:38:59Z) - Advancing Financial Risk Prediction Through Optimized LSTM Model Performance and Comparative Analysis [12.575399233846092]
本稿では、金融リスク予測におけるLSTMモデルの適用と最適化に焦点を当てる。
最適化LSTMモデルは、ランダムフォレスト、BPニューラルネットワーク、XGBoostと比較して、AUC指数において大きな利点を示す。
論文 参考訳(メタデータ) (2024-05-31T03:31:17Z) - ECC Analyzer: Extract Trading Signal from Earnings Conference Calls using Large Language Model for Stock Performance Prediction [7.358590821647365]
本研究は, 大規模言語モデル(LLM)を用いてECCからよりリッチで予測性の高いコンテンツを抽出する, textbfECC Analyzer という新しいフレームワークを紹介する。
我々は、事前訓練された大規模モデルを用いて、ECCからテキストや音声の特徴を抽出し、階層的な情報抽出戦略を実装し、よりきめ細かい情報を抽出する。
実験により,本モデルが従来の分析ベンチマークより優れていることが示された。
論文 参考訳(メタデータ) (2024-04-29T07:11:39Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Order Matters in the Presence of Dataset Imbalance for Multilingual
Learning [53.74649778447903]
本稿では,高リソースタスクの事前学習をシンプルかつ効果的に行う方法と,高リソースタスクと低リソースタスクの混合による微調整について述べる。
ニューラルネットワーク翻訳(NMT)と多言語言語モデリングの改善について述べる。
論文 参考訳(メタデータ) (2023-12-11T05:46:57Z) - Can LMs Generalize to Future Data? An Empirical Analysis on Text
Summarization [50.20034493626049]
最近の学習済み言語モデル(PLM)は、既存の抽象的な要約データセットにおいて有望な結果をもたらす。
既存の要約ベンチマークは、標準の事前学習コーパスと微調整データセットと時間的に重複する。
要約モデルに格納されたパラメトリック知識は、将来のデータに対する生成した要約の忠実度に大きく影響することを示す。
論文 参考訳(メタデータ) (2023-05-03T08:08:07Z) - Comparative Study of Language Models on Cross-Domain Data with Model
Agnostic Explainability [0.0]
この研究は、最先端の言語モデルであるBERT、ELECTRAとその派生品であるRoBERTa、ALBERT、DistilBERTを比較した。
実験結果は、2013年の格付けタスクとフィナンシャル・フレーズバンクの感情検出タスクの69%、そして88.2%の精度で、新たな最先端の「評価タスク」を確立した。
論文 参考訳(メタデータ) (2020-09-09T04:31:44Z) - Data Augmentation for Spoken Language Understanding via Pretrained
Language Models [113.56329266325902]
音声言語理解(SLU)モデルの訓練は、しばしばデータ不足の問題に直面している。
我々は,事前学習言語モデルを用いたデータ拡張手法を提案し,生成した発話の変動性と精度を向上した。
論文 参考訳(メタデータ) (2020-04-29T04:07:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。