論文の概要: MER 2023: Multi-label Learning, Modality Robustness, and Semi-Supervised
Learning
- arxiv url: http://arxiv.org/abs/2304.08981v2
- Date: Thu, 14 Sep 2023 04:03:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-15 19:09:33.667981
- Title: MER 2023: Multi-label Learning, Modality Robustness, and Semi-Supervised
Learning
- Title(参考訳): MER 2023:マルチラベル学習、モダリティロバストネス、半教師付き学習
- Authors: Zheng Lian, Haiyang Sun, Licai Sun, Kang Chen, Mingyu Xu, Kexin Wang,
Ke Xu, Yu He, Ying Li, Jinming Zhao, Ye Liu, Bin Liu, Jiangyan Yi, Meng Wang,
Erik Cambria, Guoying Zhao, Bj\"orn W. Schuller, Jianhua Tao
- Abstract要約: 第1回マルチモーダル感情認識チャレンジ(MER 2023)は、ACMマルチメディアで成功した。
本稿では、この課題の背景にある動機を紹介し、ベンチマークデータセットを説明し、参加者に関する統計情報を提供する。
この高品質なデータセットは、特に中国の研究コミュニティにとって、マルチモーダルな感情認識の新しいベンチマークになり得ると考えています。
- 参考スコア(独自算出の注目度): 90.17500229142755
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The first Multimodal Emotion Recognition Challenge (MER 2023) was
successfully held at ACM Multimedia. The challenge focuses on system robustness
and consists of three distinct tracks: (1) MER-MULTI, where participants are
required to recognize both discrete and dimensional emotions; (2) MER-NOISE, in
which noise is added to test videos for modality robustness evaluation; (3)
MER-SEMI, which provides a large amount of unlabeled samples for
semi-supervised learning. In this paper, we introduce the motivation behind
this challenge, describe the benchmark dataset, and provide some statistics
about participants. To continue using this dataset after MER 2023, please sign
a new End User License Agreement and send it to our official email address
merchallenge.contact@gmail.com. We believe this high-quality dataset can become
a new benchmark in multimodal emotion recognition, especially for the Chinese
research community.
- Abstract(参考訳): 第1回マルチモーダル感情認識チャレンジ(MER 2023)は、ACMマルチメディアで成功した。
課題はシステムロバスト性に注目し,(1)参加者が離散的感情と次元的感情の両方を認識するために要求されるmer-multi,(2)モダリティロバストネス評価のためのテストビデオにノイズを追加するmer-noise,(3)半教師あり学習のための大量のラベルなしサンプルを提供するmer-semiの3つのトラックからなる。
本稿では、この課題の背景にある動機を説明し、ベンチマークデータセットを説明し、参加者に関する統計を紹介する。
MER 2023以降もこのデータセットを使い続けるには、End User License Agreementにサインし、公式メールアドレスmerchallenge.contact@gmail.comに送ってください。
この高品質なデータセットは、特に中国の研究コミュニティにとって、マルチモーダル感情認識の新しいベンチマークになると思います。
関連論文リスト
- The MuSe 2023 Multimodal Sentiment Analysis Challenge: Mimicked
Emotions, Cross-Cultural Humour, and Personalisation [69.13075715686622]
MuSe 2023は、現代の3つの異なるマルチモーダル感情と感情分析の問題に対処する共有タスクの集合である。
MuSe 2023は、さまざまな研究コミュニティから幅広いオーディエンスを集めようとしている。
論文 参考訳(メタデータ) (2023-05-05T08:53:57Z) - MIPI 2023 Challenge on RGBW Remosaic: Methods and Results [88.53703757370016]
本稿は、MIPI 2023上でのRGBW Joint Remosaic and Denoiseのトラックを要約し、レビューする。
合計81人の参加者が登録され、4チームが最終テストフェーズで結果を提出した。
本論文では,本課題で開発された上位3モデルについて詳述する。
論文 参考訳(メタデータ) (2023-04-20T05:12:42Z) - Multimodal Emotion Recognition with Modality-Pairwise Unsupervised
Contrastive Loss [80.79641247882012]
マルチモーダル感情認識(MER)のための教師なし特徴学習に着目した。
個別の感情を考慮し、モダリティテキスト、音声、視覚が使用される。
本手法は, 対のモダリティ間のコントラスト損失に基づくもので, MER文学における最初の試みである。
論文 参考訳(メタデータ) (2022-07-23T10:11:24Z) - MEmoBERT: Pre-training Model with Prompt-based Learning for Multimodal
Emotion Recognition [118.73025093045652]
マルチモーダル感情認識のための事前学習モデル textbfMEmoBERT を提案する。
従来の「訓練前、微妙な」パラダイムとは異なり、下流の感情分類タスクをマスク付きテキスト予測として再構成するプロンプトベースの手法を提案する。
提案するMEMOBERTは感情認識性能を大幅に向上させる。
論文 参考訳(メタデータ) (2021-10-27T09:57:00Z) - NTIRE 2021 Multi-modal Aerial View Object Classification Challenge [88.89190054948325]
CVPR の NTIRE 2021 ワークショップと共同で,MAVOC (Multi-modal Aerial View Object Classification) の最初の挑戦を紹介した。
この課題は、EOとSAR画像を用いた2つの異なるトラックで構成されている。
本コンペティションで提案した最上位の手法について検討し,その成果を目視テストセットで評価する。
論文 参考訳(メタデータ) (2021-07-02T16:55:08Z) - ChaLearn LAP Large Scale Signer Independent Isolated Sign Language
Recognition Challenge: Design, Results and Future Research [28.949528008976493]
この研究はCVPR 2021で組織されたChaLearn LAP Large Scale Signer Independent Isolated SLR Challengeをまとめたものである。
我々は、チャレンジデザイン、トップ入賞ソリューション、今後の研究への提案について論じる。
優勝チームは96%以上の認識率を達成し、そのアプローチはポーズ/ハンド/フェイス推定、転送学習、外部データ、モダリティの融合/アンサンブル、モデル時系列情報への異なる戦略から恩恵を受けた。
論文 参考訳(メタデータ) (2021-05-11T14:17:39Z) - The Multimodal Sentiment Analysis in Car Reviews (MuSe-CaR) Dataset:
Collection, Insights and Improvements [14.707930573950787]
この種のマルチモーダルデータセットの1つである MuSe-CaR について述べる。
このデータは、最近第1回マルチモーダルセンチメント分析チャレンジのテストベッドとして公開された。
論文 参考訳(メタデータ) (2021-01-15T10:40:37Z) - MuSe 2020 -- The First International Multimodal Sentiment Analysis in
Real-life Media Challenge and Workshop [37.665121813745706]
実生活メディア(MuSe)におけるマルチモーダル感性分析(Multimodal Sentiment Analysis in Real-life Media)2020は、感情認識のタスクに焦点を当てたチャレンジベースのワークショップである。
連続的な感情予測に焦点を当てた MuSe-Wild と、参加者がドメイン固有のトピックを3つのクラス感情のターゲットとして認識する MuSe-Topic と、信頼の新たな側面を予測する MuSe-Trust の3つのサブチャレンジを提示する。
論文 参考訳(メタデータ) (2020-04-30T15:54:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。