論文の概要: SentiMM: A Multimodal Multi-Agent Framework for Sentiment Analysis in Social Media
- arxiv url: http://arxiv.org/abs/2508.18108v1
- Date: Mon, 25 Aug 2025 15:17:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.834207
- Title: SentiMM: A Multimodal Multi-Agent Framework for Sentiment Analysis in Social Media
- Title(参考訳): SentiMM:ソーシャルメディアにおけるマルチモーダルマルチエージェント分析フレームワーク
- Authors: Xilai Xu, Zilin Zhao, Chengye Song, Zining Wang, Jinhe Qiang, Jiongrui Yan, Yuhuai Lin,
- Abstract要約: 感情分析のための新しいマルチエージェントフレームワークであるSentiMMを提案する。
SentiMMは、特殊なエージェントを通してテキストと視覚入力を処理し、マルチモーダルな特徴を融合させ、知識検索を通じてコンテキストを豊かにし、最終的な感情分類のための結果を集約する。
また,7つの微粒な感情カテゴリーを持つ大規模マルチモーダルデータセットであるSentiMMDを紹介する。
- 参考スコア(独自算出の注目度): 6.2300278659598485
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the increasing prevalence of multimodal content on social media, sentiment analysis faces significant challenges in effectively processing heterogeneous data and recognizing multi-label emotions. Existing methods often lack effective cross-modal fusion and external knowledge integration. We propose SentiMM, a novel multi-agent framework designed to systematically address these challenges. SentiMM processes text and visual inputs through specialized agents, fuses multimodal features, enriches context via knowledge retrieval, and aggregates results for final sentiment classification. We also introduce SentiMMD, a large-scale multimodal dataset with seven fine-grained sentiment categories. Extensive experiments demonstrate that SentiMM achieves superior performance compared to state-of-the-art baselines, validating the effectiveness of our structured approach.
- Abstract(参考訳): ソーシャルメディア上でのマルチモーダルコンテンツの普及に伴い、感情分析は異種データを効果的に処理し、マルチラベルの感情を認識する上で大きな課題に直面している。
既存の手法では、効果的な相互統合と外部知識の統合が欠如していることが多い。
本稿では,これらの課題に体系的に対処するために設計された,新しいマルチエージェントフレームワークであるSentiMMを提案する。
SentiMMは、特殊なエージェントを通してテキストと視覚入力を処理し、マルチモーダルな特徴を融合させ、知識検索を通じてコンテキストを豊かにし、最終的な感情分類のための結果を集約する。
また,7つの微粒な感情カテゴリーを持つ大規模マルチモーダルデータセットであるSentiMMDを紹介する。
大規模な実験により,SentiMMは最先端のベースラインに比べて優れた性能を示し,構造的アプローチの有効性を検証した。
関連論文リスト
- A Novel Approach to for Multimodal Emotion Recognition : Multimodal semantic information fusion [3.1409950035735914]
本稿では,コントラスト学習と視覚的シーケンス圧縮を統合した新しいマルチモーダル感情認識手法であるDeepMSI-MERを提案する。
2つの公開データセット(IEMOCAPとMELD)の実験結果から、DeepMSI-MERは感情認識の精度と堅牢性を大幅に向上することが示された。
論文 参考訳(メタデータ) (2025-02-12T17:07:43Z) - GCM-Net: Graph-enhanced Cross-Modal Infusion with a Metaheuristic-Driven Network for Video Sentiment and Emotion Analysis [2.012311338995539]
本稿では,発話からのマルチモーダルな文脈情報を活用し,メタヒューリスティックなアルゴリズムを用いて発話レベルの感情と感情予測を学習する新しい枠組みを提案する。
提案手法の有効性を示すため,我々は3つの顕著なマルチモーダル・ベンチマーク・データセットについて広範な評価を行った。
論文 参考訳(メタデータ) (2024-10-02T10:07:48Z) - Leveraging Retrieval Augment Approach for Multimodal Emotion Recognition Under Missing Modalities [16.77191718894291]
我々は,Multimodal Emotion Recognition(RAMER)の欠如に対する検索機能強化の新たな枠組みを提案する。
我々のフレームワークは、欠落したモダリティMERタスクにおける最先端のアプローチよりも優れている。
論文 参考訳(メタデータ) (2024-09-19T02:31:12Z) - MMEvol: Empowering Multimodal Large Language Models with Evol-Instruct [148.39859547619156]
我々は,新しいマルチモーダル命令データ進化フレームワークであるMMEvolを提案する。
MMEvolは、きめ細かい知覚、認知的推論、相互作用の進化の洗練された組み合わせによって、データ品質を反復的に改善する。
提案手法は,9つのタスクにおいて,最先端モデルに比べて有意に少ない精度でSOTA(State-of-the-art)性能を実現する。
論文 参考訳(メタデータ) (2024-09-09T17:44:00Z) - Leveraging Entity Information for Cross-Modality Correlation Learning: The Entity-Guided Multimodal Summarization [49.08348604716746]
Multimodal Summarization with Multimodal Output (MSMO) は、テキストと関連する画像の両方を統合するマルチモーダル要約を作成することを目的としている。
本稿では,Entity-Guided Multimodal Summarization Model (EGMS)を提案する。
我々のモデルは,BART上に構築され,共有重み付きデュアルマルチモーダルエンコーダを用いて,テキスト画像とエンティティ画像情報を並列に処理する。
論文 参考訳(メタデータ) (2024-08-06T12:45:56Z) - Joint Multimodal Transformer for Emotion Recognition in the Wild [49.735299182004404]
マルチモーダル感情認識(MMER)システムは、通常、単調なシステムよりも優れている。
本稿では,キーベースのクロスアテンションと融合するために,ジョイントマルチモーダルトランス (JMT) を利用するMMER法を提案する。
論文 参考訳(メタデータ) (2024-03-15T17:23:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。