論文の概要: The MuSe 2024 Multimodal Sentiment Analysis Challenge: Social Perception and Humor Recognition
- arxiv url: http://arxiv.org/abs/2406.07753v1
- Date: Tue, 11 Jun 2024 22:26:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-13 20:56:21.824561
- Title: The MuSe 2024 Multimodal Sentiment Analysis Challenge: Social Perception and Humor Recognition
- Title(参考訳): MuSe 2024 マルチモーダル感性分析の課題:社会的知覚と覚醒の認識
- Authors: Shahin Amiriparian, Lukas Christ, Alexander Kathan, Maurice Gerczuk, Niklas Müller, Steffen Klug, Lukas Stappen, Andreas König, Erik Cambria, Björn Schuller, Simone Eulitz,
- Abstract要約: マルチモーダル・センティメント・アナリティクス・チャレンジ (MuSe) 2024は、現代の2つのマルチモーダル・インフルエンスと感情分析の問題に対処する。
Social Perception Sub-Challenge (MuSe-Perception)では、参加者は16種類の個人の社会的属性を予測する。
クロスカルカルカルチャー・ヒューモー検出サブチャレンジ(MuSe-Humor)データセットは、Passau Spontaneous Football Coach Humorデータセット上に拡張される。
- 参考スコア(独自算出の注目度): 64.5207572897806
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The Multimodal Sentiment Analysis Challenge (MuSe) 2024 addresses two contemporary multimodal affect and sentiment analysis problems: In the Social Perception Sub-Challenge (MuSe-Perception), participants will predict 16 different social attributes of individuals such as assertiveness, dominance, likability, and sincerity based on the provided audio-visual data. The Cross-Cultural Humor Detection Sub-Challenge (MuSe-Humor) dataset expands upon the Passau Spontaneous Football Coach Humor (Passau-SFCH) dataset, focusing on the detection of spontaneous humor in a cross-lingual and cross-cultural setting. The main objective of MuSe 2024 is to unite a broad audience from various research domains, including multimodal sentiment analysis, audio-visual affective computing, continuous signal processing, and natural language processing. By fostering collaboration and exchange among experts in these fields, the MuSe 2024 endeavors to advance the understanding and application of sentiment analysis and affective computing across multiple modalities. This baseline paper provides details on each sub-challenge and its corresponding dataset, extracted features from each data modality, and discusses challenge baselines. For our baseline system, we make use of a range of Transformers and expert-designed features and train Gated Recurrent Unit (GRU)-Recurrent Neural Network (RNN) models on them, resulting in a competitive baseline system. On the unseen test datasets of the respective sub-challenges, it achieves a mean Pearson's Correlation Coefficient ($\rho$) of 0.3573 for MuSe-Perception and an Area Under the Curve (AUC) value of 0.8682 for MuSe-Humor.
- Abstract(参考訳): マルチモーダル・センティメント・アナリティクス・チャレンジ (MuSe) 2024は、現代の2つのマルチモーダルな感情と感情分析の問題に対処する。 ソーシャル・パーセプション・サブ・チャレンジ (MuSe-Perception) では、参加者は、提供された音声視覚データに基づいて、主張性、支配性、責任性、誠実さなどの、16の異なる個人の社会的属性を予測する。
クロスカルチャー・ヒューム検出サブチャレンジ(MuSe-Humor)データセットは、相互言語的・異文化的な環境で自発的なユーモアの検出に焦点を当てた、パストー・スポンタンス・フットボール・コーチ・ヒューム(Passau Sponous Football Coach Humor, Passau-SFCH)データセット上に拡張される。
MuSe 2024の主な目的は、マルチモーダル感情分析、オーディオ・視覚的感情コンピューティング、連続信号処理、自然言語処理など、様々な研究領域から幅広い聴衆を集結させることである。
これらの分野の専門家間のコラボレーションと交流を促進することで、MuSe 2024は感情分析と感情計算の理解と適用を複数のモダリティにわたって進めようとしている。
本論文は,各サブチャレンジとその対応するデータセットの詳細,各データモダリティから抽出した特徴,課題ベースラインについて述べる。
ベースラインシステムでは,トランスフォーマーと専門家が設計した機能を活用し,GRU(Gated Recurrent Unit)-Recurrent Neural Network(RNN)モデルをトレーニングすることで,競争力のあるベースラインシステムを実現する。
各サブチャレンジの目に見えないテストデータセットでは、平均ピアソンの相関係数は MuSe-Perception が 0.3573 であり、AUC は MuSe-Humor が 0.8682 である。
関連論文リスト
- Exploiting Diverse Feature for Multimodal Sentiment Analysis [40.39627083212711]
我々は, MuSe 2023 Multimodal Sentiment Analysis Challenge において, MuSe-Personalization sub-challenge に対するソリューションを提案する。
異なる人物が個性を持っていることを考えると、このタスクの主な課題は、感情予測のための堅牢性機能プレゼンテーションを構築する方法である。
論文 参考訳(メタデータ) (2023-08-25T15:06:14Z) - The MuSe 2023 Multimodal Sentiment Analysis Challenge: Mimicked
Emotions, Cross-Cultural Humour, and Personalisation [69.13075715686622]
MuSe 2023は、現代の3つの異なるマルチモーダル感情と感情分析の問題に対処する共有タスクの集合である。
MuSe 2023は、さまざまな研究コミュニティから幅広いオーディエンスを集めようとしている。
論文 参考訳(メタデータ) (2023-05-05T08:53:57Z) - MER 2023: Multi-label Learning, Modality Robustness, and Semi-Supervised
Learning [90.17500229142755]
第1回マルチモーダル感情認識チャレンジ(MER 2023)は、ACMマルチメディアで成功した。
本稿では、この課題の背景にある動機を紹介し、ベンチマークデータセットを説明し、参加者に関する統計情報を提供する。
この高品質なデータセットは、特に中国の研究コミュニティにとって、マルチモーダルな感情認識の新しいベンチマークになり得ると考えています。
論文 参考訳(メタデータ) (2023-04-18T13:23:42Z) - Towards Multimodal Prediction of Spontaneous Humour: A Novel Dataset and First Results [84.37263300062597]
風は人間の社会的行動、感情、認知の重要な要素である。
現在のユーモア検出法は、ステージ化されたデータのみに基づいており、「現実世界」の応用には不十分である。
約11時間の記録を含むPassau-Spontaneous Football Coach Humorデータセットを導入することで,この障害への対処に寄与する。
論文 参考訳(メタデータ) (2022-09-28T17:36:47Z) - Hybrid Multimodal Feature Extraction, Mining and Fusion for Sentiment
Analysis [31.097398034974436]
我々は,MuSe-Humor, MuSe-Reaction, MuSe-Stress Sub-challengesを含む2022年度のMultimodal Sentiment Analysis Challengeのソリューションを提案する。
MuSe 2022はユーモアの検出、感情反応、さまざまなモダリティとデータセットを活用するマルチモーダルな感情ストレスに焦点を当てている。
論文 参考訳(メタデータ) (2022-08-05T09:07:58Z) - Co-Located Human-Human Interaction Analysis using Nonverbal Cues: A
Survey [71.43956423427397]
本研究の目的は,非言語的キューと計算手法を同定し,効果的な性能を実現することである。
この調査は、最も広い範囲の社会現象と相互作用設定を巻き込むことによって、相手と異なる。
もっともよく使われる非言語キュー、計算方法、相互作用環境、センシングアプローチは、それぞれマイクとカメラを備えた3,4人で構成される会話活動、ベクターマシンのサポート、ミーティングである。
論文 参考訳(メタデータ) (2022-07-20T13:37:57Z) - The MuSe 2022 Multimodal Sentiment Analysis Challenge: Humor, Emotional
Reactions, and Stress [71.06453250061489]
マルチモーダル・センチメント・アナリティクス・チャレンジ(MuSe 2022)は、マルチモーダル・センチメントと感情認識に重点を置いている。
今年の課題では、(i)ドイツサッカーコーチの音声-視覚的記録を含むPassau Spontaneous Football Coach Humorデータセット、(ii)ドイツサッカーコーチのユーモアの存在をラベル付けしたHum-Reactionデータセット、(ii)感情的表情強度に対して個人の反応が注釈付けされたHum-Reactionデータセット、(iii)ストレス的態度における人々の継続的な感情的価値観をラベル付けした音声-視覚的データからなるUlm-Trier Social Stress Testデータセットの3つのデータセットを特徴としている。
論文 参考訳(メタデータ) (2022-06-23T13:34:33Z) - The Multimodal Sentiment Analysis in Car Reviews (MuSe-CaR) Dataset:
Collection, Insights and Improvements [14.707930573950787]
この種のマルチモーダルデータセットの1つである MuSe-CaR について述べる。
このデータは、最近第1回マルチモーダルセンチメント分析チャレンジのテストベッドとして公開された。
論文 参考訳(メタデータ) (2021-01-15T10:40:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。