論文の概要: Multi-Modal Opinion Integration for Financial Sentiment Analysis using Cross-Modal Attention
- arxiv url: http://arxiv.org/abs/2512.03464v1
- Date: Wed, 03 Dec 2025 05:38:11 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-04 12:04:31.798152
- Title: Multi-Modal Opinion Integration for Financial Sentiment Analysis using Cross-Modal Attention
- Title(参考訳): クロスモーダルアテンションを用いた財務感性分析のためのマルチモーダルオピニオン統合
- Authors: Yujing Liu, Chen Yang,
- Abstract要約: 本稿では,2つの財務的意見の相違を統合したエンドツーエンドのディープラーニングフレームワークを提案する。
提案手法の精度は83.5%で,BERT+Transformerを含むベースラインを21%上回っている。
- 参考スコア(独自算出の注目度): 6.350360575808128
- License:
- Abstract: In recent years, financial sentiment analysis of public opinion has become increasingly important for market forecasting and risk assessment. However, existing methods often struggle to effectively integrate diverse opinion modalities and capture fine-grained interactions across them. This paper proposes an end-to-end deep learning framework that integrates two distinct modalities of financial opinions: recency modality (timely opinions) and popularity modality (trending opinions), through a novel cross-modal attention mechanism specifically designed for financial sentiment analysis. While both modalities consist of textual data, they represent fundamentally different information channels: recency-driven market updates versus popularity-driven collective sentiment. Our model first uses BERT (Chinese-wwm-ext) for feature embedding and then employs our proposed Financial Multi-Head Cross-Attention (FMHCA) structure to facilitate information exchange between these distinct opinion modalities. The processed features are optimized through a transformer layer and fused using multimodal factored bilinear pooling for classification into negative, neutral, and positive sentiment. Extensive experiments on a comprehensive dataset covering 837 companies demonstrate that our approach achieves an accuracy of 83.5%, significantly outperforming baselines including BERT+Transformer by 21 percent. These results highlight the potential of our framework to support more accurate financial decision-making and risk management.
- Abstract(参考訳): 近年、市場予測やリスク評価において、世論の財務感情分析がますます重要になっている。
しかし、既存の手法は、様々な意見モダリティを効果的に統合し、それらの間のきめ細かい相互作用を捉えるのに苦労することが多い。
本稿では,金融感情分析に特化して設計された新たな相互注意機構を通じて,直感的モダリティ(時制的意見)と人気モダリティ(時制的意見)の2つの異なる金融的意見のモダリティを統合するエンド・ツー・エンドのディープラーニングフレームワークを提案する。
どちらのモダリティもテキストデータで構成されているが、それらは基本的に異なる情報チャネルを表現している。
我々のモデルはまず,機能埋め込みにBERT( Chinese-wwm-ext)を使用し,その後,これらの異なる意見モダリティ間の情報交換を容易にするために提案したFMHCA(Financial Multi-Head Cross-Attention)構造を用いている。
処理された特徴は変圧器層を通じて最適化され, 負, 中立, 正の感情に分類するために, マルチモーダルファクタリングバイリニアプールを用いて融合する。
837社をカバーする包括的データセットに関する大規模な実験は、我々のアプローチが83.5%の精度を達成し、BERT+Transformerを含むベースラインを21%上回ったことを示している。
これらの結果は、より正確な財務意思決定とリスク管理を支援する枠組みの可能性を浮き彫りにした。
関連論文リスト
- Unveiling Trust in Multimodal Large Language Models: Evaluation, Analysis, and Mitigation [51.19622266249408]
MultiTrust-XはMLLMの信頼性問題を評価、分析、緩和するためのベンチマークである。
分類に基づいて、MultiTrust-Xには32のタスクと28のキュレートデータセットが含まれている。
私たちの実験は、現在のモデルに重大な脆弱性を明らかにします。
論文 参考訳(メタデータ) (2025-08-21T09:00:01Z) - Cross-Modal Temporal Fusion for Financial Market Forecasting [3.0756278306759635]
我々は、市場予測を改善するために、構造化および非構造化の財務データを融合するトランスフォーマーベースのディープラーニングフレームワークであるCross-Modal Temporal Fusion (CMTF)を導入する。
FTSE 100 ストックデータを用いた実験結果から,CMTF は古典的および深層学習ベースラインと比較して,価格方向分類において優れた性能を示した。
論文 参考訳(メタデータ) (2025-04-18T07:20:18Z) - FinTSB: A Comprehensive and Practical Benchmark for Financial Time Series Forecasting [58.70072722290475]
ファイナンシャル・タイム・シリーズ(FinTS)は、人間の脳を増強した意思決定の行動を記録する。
FinTSBは金融時系列予測のための総合的で実用的なベンチマークである。
論文 参考訳(メタデータ) (2025-02-26T05:19:16Z) - Multimodal Sentiment Analysis Based on Causal Reasoning [6.610016449061257]
本稿では,因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因果的因
MVSA-SingleとMVSA-Multipleの2つの公開データセットの実験結果は、提案したCF-MSAがより優れた劣化能力を有し、新しい最先端のパフォーマンスを実現することを実証している。
論文 参考訳(メタデータ) (2024-12-10T08:21:19Z) - Stock Movement Prediction with Multimodal Stable Fusion via Gated Cross-Attention Mechanism [11.6870352823637]
本研究は,MSGCA (Multimodal Stable Fusion with Gated Cross-Attention) という新しいアーキテクチャを導入する。
MSGCAフレームワークは、(1)インジケータシーケンス、動的文書、および関係グラフを処理し、それらの特徴表現を標準化する三次符号化モジュール、(2)プライマリおよび一貫性のある特徴が一対のゲート型クロスアテンションネットワークを介して3つのモダリティのマルチモーダル融合を導くクロスフュージョンモジュール、(3)時間的および次元的縮小により融合した特徴を洗練して正確に実行する予測モジュールからなる。
論文 参考訳(メタデータ) (2024-06-06T03:13:34Z) - Factor Investing with a Deep Multi-Factor Model [123.52358449455231]
我々は、業界中立化と市場中立化モジュールを明確な財務見識をもって取り入れた、新しい深層多要素モデルを開発する。
実世界の株式市場データによるテストは、我々の深層多要素モデルの有効性を示している。
論文 参考訳(メタデータ) (2022-10-22T14:47:11Z) - Trustworthy Multimodal Regression with Mixture of Normal-inverse Gamma
Distributions [91.63716984911278]
このアルゴリズムは、異なるモードの適応的統合の原理における不確かさを効率的に推定し、信頼できる回帰結果を生成する。
実世界のデータと実世界のデータの両方に対する実験結果から,多モード回帰タスクにおける本手法の有効性と信頼性が示された。
論文 参考訳(メタデータ) (2021-11-11T14:28:12Z) - Bi-Bimodal Modality Fusion for Correlation-Controlled Multimodal
Sentiment Analysis [96.46952672172021]
Bi-Bimodal Fusion Network (BBFN) は、2対のモダリティ表現で融合を行う新しいエンドツーエンドネットワークである。
モデルは、モダリティ間の既知の情報不均衡により、2つのバイモーダルペアを入力として取る。
論文 参考訳(メタデータ) (2021-07-28T23:33:42Z) - Gaussian process imputation of multiple financial series [71.08576457371433]
金融指標、株価、為替レートなどの複数の時系列は、市場が潜んでいる状態に依存しているため、強く結びついている。
金融時系列間の関係を多出力ガウスプロセスでモデル化することで学習することに注力する。
論文 参考訳(メタデータ) (2020-02-11T19:18:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。