論文の概要: Incorporating Pre-trained Model Prompting in Multimodal Stock Volume
Movement Prediction
- arxiv url: http://arxiv.org/abs/2309.05608v1
- Date: Mon, 11 Sep 2023 16:47:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-12 11:37:53.681786
- Title: Incorporating Pre-trained Model Prompting in Multimodal Stock Volume
Movement Prediction
- Title(参考訳): マルチモーダル在庫移動予測における事前学習モデルの導入
- Authors: Ruibo Chen, Zhiyuan Zhang, Yi Liu, Ruihan Bao, Keiko Harimoto, Xu Sun
- Abstract要約: 本稿では,PromptをベースとしたMUltimodal Stock volumE予測モデル(ProMUSE)を提案する。
金融ニュースの理解を深めるために、事前訓練された言語モデルを使用します。
また, この問題を緩和するため, 核融合ヘッドの横にある一方向の頭部を保ちながら, 新たな異方性コントラストアライメントを提案する。
- 参考スコア(独自算出の注目度): 22.949484374773967
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multimodal stock trading volume movement prediction with stock-related news
is one of the fundamental problems in the financial area. Existing multimodal
works that train models from scratch face the problem of lacking universal
knowledge when modeling financial news. In addition, the models ability may be
limited by the lack of domain-related knowledge due to insufficient data in the
datasets. To handle this issue, we propose the Prompt-based MUltimodal Stock
volumE prediction model (ProMUSE) to process text and time series modalities.
We use pre-trained language models for better comprehension of financial news
and adopt prompt learning methods to leverage their capability in universal
knowledge to model textual information. Besides, simply fusing two modalities
can cause harm to the unimodal representations. Thus, we propose a novel
cross-modality contrastive alignment while reserving the unimodal heads beside
the fusion head to mitigate this problem. Extensive experiments demonstrate
that our proposed ProMUSE outperforms existing baselines. Comprehensive
analyses further validate the effectiveness of our architecture compared to
potential variants and learning mechanisms.
- Abstract(参考訳): 株式関連ニュースによるマルチモーダル取引量変動の予測は、金融分野の根本的問題の一つである。
ゼロからモデルを訓練する既存のマルチモーダルワークは、金融ニュースをモデル化する際の普遍的な知識の欠如に直面している。
さらに、モデルの能力は、データセットのデータ不足のため、ドメイン関連の知識の欠如によって制限される可能性がある。
この問題に対処するために,テキストと時系列のモダリティを処理するプロンプトベースマルチモーダルストックボリューム予測モデル(promuse)を提案する。
我々は、金融ニュースの理解を深めるために、事前学習された言語モデルを使用し、テキスト情報モデリングに普遍的な知識の能力を活用するために、即興学習手法を採用する。
さらに、2つのモダリティを単純に融合すれば、単項表現に害を与えることがある。
そこで本研究では, 核融合ヘッドの横にユニモーダルヘッドを保存しながら, 新たなクロスモダリティコントラストアライメントを提案する。
大規模な実験により,提案したProMUSEは既存のベースラインを上回る性能を示した。
包括的分析は、潜在的な変種や学習メカニズムと比較して、アーキテクチャの有効性をさらに検証する。
関連論文リスト
- Missing Modality Prediction for Unpaired Multimodal Learning via Joint Embedding of Unimodal Models [6.610033827647869]
実世界のシナリオでは、完全なマルチモーダルデータを一貫して取得することは重大な課題である。
これはしばしば、特定のモダリティのデータが欠落しているモダリティの問題につながる。
自己教師型共同埋め込み学習手法を用いて, パラメータ効率のよい未学習モデルの微調整を行う新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-17T14:44:25Z) - When Parameter-efficient Tuning Meets General-purpose Vision-language
Models [65.19127815275307]
PETALは、一意のモード近似技術によって達成される全パラメータの0.5%しか必要とせず、トレーニングプロセスに革命をもたらす。
実験の結果,PETALは現状の手法をほとんどのシナリオで上回るだけでなく,完全な微調整モデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-12-16T17:13:08Z) - What Makes for Robust Multi-Modal Models in the Face of Missing
Modalities? [35.19295402483624]
我々は、情報理論の観点から、欠落するモダリティに遭遇するマルチモーダルモデルのシナリオをモデル化する。
UME-MMA(Uni-Modal Ensemble with Missing Modality Adaptation)を紹介する。
UME-MMAは、マルチモーダルモデルのための一様事前訓練重みを用いて特徴抽出を強化し、欠落したモダリティデータ拡張技術を用いて、モダリティのない状況に適応する。
論文 参考訳(メタデータ) (2023-10-10T07:47:57Z) - MinT: Boosting Generalization in Mathematical Reasoning via Multi-View
Fine-Tuning [53.90744622542961]
数学領域における推論は、小言語モデル(LM)にとって重要な課題である。
多様なアノテーションスタイルで既存の数学的問題データセットを利用する新しい手法を提案する。
実験結果から,LLaMA-7Bモデルが先行手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-07-16T05:41:53Z) - Learning Unseen Modality Interaction [54.23533023883659]
マルチモーダル学習は、すべてのモダリティの組み合わせが訓練中に利用でき、クロスモーダル対応を学ぶことを前提としている。
我々は、目に見えないモダリティ相互作用の問題を提起し、第1の解を導入する。
異なるモジュラリティの多次元的特徴を、豊富な情報を保存した共通空間に投影するモジュールを利用する。
論文 参考訳(メタデータ) (2023-06-22T10:53:10Z) - Can ChatGPT Forecast Stock Price Movements? Return Predictability and Large Language Models [51.3422222472898]
ニュース見出しを用いて,ChatGPTのような大規模言語モデル(LLM)の株価変動を予測する能力について述べる。
我々は,情報容量制約,過小反応,制限対アビタージュ,LLMを組み込んだ理論モデルを構築した。
論文 参考訳(メタデータ) (2023-04-15T19:22:37Z) - Large Language Models with Controllable Working Memory [64.71038763708161]
大規模言語モデル(LLM)は、自然言語処理(NLP)の一連のブレークスルーをもたらした。
これらのモデルをさらに切り離すのは、事前訓練中に内在する膨大な量の世界的知識だ。
モデルの世界知識が、文脈で提示された事実情報とどのように相互作用するかは、まだ解明されていない。
論文 参考訳(メタデータ) (2022-11-09T18:58:29Z) - Adaptive Contrastive Learning on Multimodal Transformer for Review
Helpfulness Predictions [40.70793282367128]
本稿では,MRHP(Multimodal Review Helpfulness Prediction)問題に対するマルチモーダルコントラスト学習を提案する。
さらに,コントラスト学習における適応重み付け方式を提案する。
最後に,マルチモーダルデータの不整合性に対処するマルチモーダルインタラクションモジュールを提案する。
論文 参考訳(メタデータ) (2022-11-07T13:05:56Z) - Discriminative Multimodal Learning via Conditional Priors in Generative
Models [21.166519800652047]
本研究は,モデルトレーニングにおいて,すべてのモダリティとクラスラベルが利用できる現実的なシナリオについて研究する。
このシナリオでは、変動的な下界境界は、結合表現と欠測モダリティの間の相互情報を制限する。
論文 参考訳(メタデータ) (2021-10-09T17:22:24Z) - Bi-Bimodal Modality Fusion for Correlation-Controlled Multimodal
Sentiment Analysis [96.46952672172021]
Bi-Bimodal Fusion Network (BBFN) は、2対のモダリティ表現で融合を行う新しいエンドツーエンドネットワークである。
モデルは、モダリティ間の既知の情報不均衡により、2つのバイモーダルペアを入力として取る。
論文 参考訳(メタデータ) (2021-07-28T23:33:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。