論文の概要: MMAFFBen: A Multilingual and Multimodal Affective Analysis Benchmark for Evaluating LLMs and VLMs
- arxiv url: http://arxiv.org/abs/2505.24423v1
- Date: Fri, 30 May 2025 10:02:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:52.891891
- Title: MMAFFBen: A Multilingual and Multimodal Affective Analysis Benchmark for Evaluating LLMs and VLMs
- Title(参考訳): MMAFFBen: LLMとVLMの評価のための多言語および多モーダル影響分析ベンチマーク
- Authors: Zhiwei Liu, Lingfei Qian, Qianqian Xie, Jimin Huang, Kailai Yang, Sophia Ananiadou,
- Abstract要約: MMAFFBenは多言語マルチモーダル感情分析のためのオープンソースのベンチマークである。
MMAFFBenは、感情極性、感情強度、感情分類、感情強度の4つの主要な感情分析タスクをカバーしている。
MMAFFLM-3b と MMAFFLM-7b は,感情分析タスクを微調整するための MMAFFIn データセットの構築と,それに基づく MMAFFLM-3b と MMAFFLM-7b の開発を行う。
- 参考スコア(独自算出の注目度): 33.73249122449025
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models and vision-language models (which we jointly call LMs) have transformed NLP and CV, demonstrating remarkable potential across various fields. However, their capabilities in affective analysis (i.e. sentiment analysis and emotion detection) remain underexplored. This gap is largely due to the absence of comprehensive evaluation benchmarks, and the inherent complexity of affective analysis tasks. In this paper, we introduce MMAFFBen, the first extensive open-source benchmark for multilingual multimodal affective analysis. MMAFFBen encompasses text, image, and video modalities across 35 languages, covering four key affective analysis tasks: sentiment polarity, sentiment intensity, emotion classification, and emotion intensity. Moreover, we construct the MMAFFIn dataset for fine-tuning LMs on affective analysis tasks, and further develop MMAFFLM-3b and MMAFFLM-7b based on it. We evaluate various representative LMs, including GPT-4o-mini, providing a systematic comparison of their affective understanding capabilities. This project is available at https://github.com/lzw108/MMAFFBen.
- Abstract(参考訳): 大規模言語モデルと視覚言語モデル(共同でLMと呼ぶ)は、NLPとCVを変換し、様々な分野において顕著な可能性を示している。
しかし、感情分析(感情分析と感情検出)におけるそれらの能力はいまだに未解明のままである。
このギャップは、総合的な評価ベンチマークが欠如していることと、感情分析タスクの本質的な複雑さが原因である。
本稿では,多言語マルチモーダル感情分析のためのオープンソースベンチマークであるMMAFFBenを紹介する。
MMAFFBenは、35言語にわたるテキスト、画像、ビデオのモダリティを含み、感情極性、感情の強さ、感情の分類、感情の強さの4つの主要な感情分析タスクを含んでいる。
さらに,感情分析タスクを微調整するためのMMAFFInデータセットを構築し,それに基づいてMMAFFLM-3bとMMAFFLM-7bを開発する。
GPT-4o-miniを含む様々な代表的LMを評価し,その感情的理解能力を体系的に比較した。
このプロジェクトはhttps://github.com/lzw108/MMAFFBenで入手できる。
関連論文リスト
- VOILA: Evaluation of MLLMs For Perceptual Understanding and Analogical Reasoning [63.0285363282581]
MLLM(Multimodal Large Language Models)は、視覚情報とテキスト情報を統合するための強力なツールとなっている。
本稿では,MLLMの知覚的理解と抽象的関係推論を評価するためのベンチマークVOILAを紹介する。
我々は,現在のMLLMが画像間関係の理解に苦慮し,高レベルの関係推論において限られた能力を示すことを明らかにした。
論文 参考訳(メタデータ) (2025-02-25T23:36:19Z) - BRIGHTER: BRIdging the Gap in Human-Annotated Textual Emotion Recognition Datasets for 28 Languages [93.92804151830744]
BRIGHTERは、28の言語で複数ラベル付き、感情アノテートされたデータセットの集合である。
データ収集とアノテーションプロセスに関する課題を強調します。
BRIGHTERデータセットは、テキストベースの感情認識のギャップに対処するための重要なステップであることを示す。
論文 参考訳(メタデータ) (2025-02-17T15:39:50Z) - Do Large Language Models Possess Sensitive to Sentiment? [18.88126980975737]
大規模言語モデル(LLM)は、最近、言語理解における異常な能力を示した。
本稿では,LLMがテキストモーダルの感情を検知し,反応する能力について検討する。
論文 参考訳(メタデータ) (2024-09-04T01:40:20Z) - Large Language Models Meet Text-Centric Multimodal Sentiment Analysis: A Survey [66.166184609616]
ChatGPTは、テキスト中心のマルチモーダルタスクに大規模言語モデル(LLM)を適用する大きな可能性を開く。
既存のLLMがテキスト中心のマルチモーダル感情分析タスクにどのように適応できるかは、まだ不明である。
論文 参考訳(メタデータ) (2024-06-12T10:36:27Z) - EmoLLMs: A Series of Emotional Large Language Models and Annotation Tools for Comprehensive Affective Analysis [33.0280076936761]
EmoLLMs はオープンソースの命令追従型 LLM の第1シリーズであり,インストラクションデータを用いた各種 LLM の微調整に基づく感情分析を行う。
EmoLLMは、感情分析タスクにおいて、ChatGPTレベルおよびGPT-4レベルの一般化機能を実現する。
論文 参考訳(メタデータ) (2024-01-16T17:11:11Z) - Sentiment Analysis in the Era of Large Language Models: A Reality Check [69.97942065617664]
本稿では,大規模言語モデル(LLM)の様々な感情分析タスクの実行能力について検討する。
26のデータセット上の13のタスクのパフォーマンスを評価し、ドメイン固有のデータセットに基づいて訓練された小言語モデル(SLM)と比較した。
論文 参考訳(メタデータ) (2023-05-24T10:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。