論文の概要: MER 2023: Multi-label Learning, Modality Robustness, and Semi-Supervised
Learning
- arxiv url: http://arxiv.org/abs/2304.08981v2
- Date: Thu, 14 Sep 2023 04:03:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-15 19:09:33.667981
- Title: MER 2023: Multi-label Learning, Modality Robustness, and Semi-Supervised
Learning
- Title(参考訳): MER 2023:マルチラベル学習、モダリティロバストネス、半教師付き学習
- Authors: Zheng Lian, Haiyang Sun, Licai Sun, Kang Chen, Mingyu Xu, Kexin Wang,
Ke Xu, Yu He, Ying Li, Jinming Zhao, Ye Liu, Bin Liu, Jiangyan Yi, Meng Wang,
Erik Cambria, Guoying Zhao, Bj\"orn W. Schuller, Jianhua Tao
- Abstract要約: 第1回マルチモーダル感情認識チャレンジ(MER 2023)は、ACMマルチメディアで成功した。
本稿では、この課題の背景にある動機を紹介し、ベンチマークデータセットを説明し、参加者に関する統計情報を提供する。
この高品質なデータセットは、特に中国の研究コミュニティにとって、マルチモーダルな感情認識の新しいベンチマークになり得ると考えています。
- 参考スコア(独自算出の注目度): 90.17500229142755
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The first Multimodal Emotion Recognition Challenge (MER 2023) was
successfully held at ACM Multimedia. The challenge focuses on system robustness
and consists of three distinct tracks: (1) MER-MULTI, where participants are
required to recognize both discrete and dimensional emotions; (2) MER-NOISE, in
which noise is added to test videos for modality robustness evaluation; (3)
MER-SEMI, which provides a large amount of unlabeled samples for
semi-supervised learning. In this paper, we introduce the motivation behind
this challenge, describe the benchmark dataset, and provide some statistics
about participants. To continue using this dataset after MER 2023, please sign
a new End User License Agreement and send it to our official email address
merchallenge.contact@gmail.com. We believe this high-quality dataset can become
a new benchmark in multimodal emotion recognition, especially for the Chinese
research community.
- Abstract(参考訳): 第1回マルチモーダル感情認識チャレンジ(MER 2023)は、ACMマルチメディアで成功した。
課題はシステムロバスト性に注目し,(1)参加者が離散的感情と次元的感情の両方を認識するために要求されるmer-multi,(2)モダリティロバストネス評価のためのテストビデオにノイズを追加するmer-noise,(3)半教師あり学習のための大量のラベルなしサンプルを提供するmer-semiの3つのトラックからなる。
本稿では、この課題の背景にある動機を説明し、ベンチマークデータセットを説明し、参加者に関する統計を紹介する。
MER 2023以降もこのデータセットを使い続けるには、End User License Agreementにサインし、公式メールアドレスmerchallenge.contact@gmail.comに送ってください。
この高品質なデータセットは、特に中国の研究コミュニティにとって、マルチモーダル感情認識の新しいベンチマークになると思います。
関連論文リスト
- Leveraging Contrastive Learning and Self-Training for Multimodal Emotion Recognition with Limited Labeled Samples [18.29910296652917]
MER2024-SEMI(Semi-Supervised Learning Sub-Challenge)に対する提案手法を提案する。
この課題は、感情認識における限られた注釈付きデータの問題に対処する。
提案手法はMER2024-SEMIチャレンジで有効であることが確認され, 平均Fスコア88.25%, リーダーボード6位となった。
論文 参考訳(メタデータ) (2024-08-23T11:33:54Z) - SZTU-CMU at MER2024: Improving Emotion-LLaMA with Conv-Attention for Multimodal Emotion Recognition [65.19303535139453]
我々は,マルチモーダル感情認識におけるMER2024チャレンジのMER-NOISEとMER-OVトラックに対する勝利のアプローチを示す。
Emotion-LLaMAの高度な感情理解機能を利用して、ラベルなしサンプルの高品質なアノテーションを生成する。
MER-OVトラックでは,オープンボキャブラリアノテーションにEmotion-LLaMAを用いることで,GPT-4Vと比較して平均精度とリコールが8.52%向上した。
論文 参考訳(メタデータ) (2024-08-20T02:46:03Z) - The MuSe 2024 Multimodal Sentiment Analysis Challenge: Social Perception and Humor Recognition [64.5207572897806]
マルチモーダル・センティメント・アナリティクス・チャレンジ (MuSe) 2024は、現代の2つのマルチモーダル・インフルエンスと感情分析の問題に対処する。
Social Perception Sub-Challenge (MuSe-Perception)では、参加者は16種類の個人の社会的属性を予測する。
クロスカルカルカルチャー・ヒューモー検出サブチャレンジ(MuSe-Humor)データセットは、Passau Spontaneous Football Coach Humorデータセット上に拡張される。
論文 参考訳(メタデータ) (2024-06-11T22:26:20Z) - MER 2024: Semi-Supervised Learning, Noise Robustness, and Open-Vocabulary Multimodal Emotion Recognition [102.76954967225231]
我々は、この分野の発展を促進するために、MERシリーズのコンペティションを組織する。
昨年、私たちはMER2023を立ち上げ、マルチラベル学習、ノイズの堅牢性、半教師付き学習という3つの興味深いトピックに焦点を当てました。
今年は、データセットのサイズの拡大に加えて、オープン語彙の感情認識に関する新たなトラックを導入しました。
論文 参考訳(メタデータ) (2024-04-26T02:05:20Z) - The MuSe 2023 Multimodal Sentiment Analysis Challenge: Mimicked
Emotions, Cross-Cultural Humour, and Personalisation [69.13075715686622]
MuSe 2023は、現代の3つの異なるマルチモーダル感情と感情分析の問題に対処する共有タスクの集合である。
MuSe 2023は、さまざまな研究コミュニティから幅広いオーディエンスを集めようとしている。
論文 参考訳(メタデータ) (2023-05-05T08:53:57Z) - Multimodal Emotion Recognition with Modality-Pairwise Unsupervised
Contrastive Loss [80.79641247882012]
マルチモーダル感情認識(MER)のための教師なし特徴学習に着目した。
個別の感情を考慮し、モダリティテキスト、音声、視覚が使用される。
本手法は, 対のモダリティ間のコントラスト損失に基づくもので, MER文学における最初の試みである。
論文 参考訳(メタデータ) (2022-07-23T10:11:24Z) - ChaLearn LAP Large Scale Signer Independent Isolated Sign Language
Recognition Challenge: Design, Results and Future Research [28.949528008976493]
この研究はCVPR 2021で組織されたChaLearn LAP Large Scale Signer Independent Isolated SLR Challengeをまとめたものである。
我々は、チャレンジデザイン、トップ入賞ソリューション、今後の研究への提案について論じる。
優勝チームは96%以上の認識率を達成し、そのアプローチはポーズ/ハンド/フェイス推定、転送学習、外部データ、モダリティの融合/アンサンブル、モデル時系列情報への異なる戦略から恩恵を受けた。
論文 参考訳(メタデータ) (2021-05-11T14:17:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。