論文の概要: MER 2023: Multi-label Learning, Modality Robustness, and Semi-Supervised
Learning
- arxiv url: http://arxiv.org/abs/2304.08981v1
- Date: Tue, 18 Apr 2023 13:23:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-19 14:41:34.906991
- Title: MER 2023: Multi-label Learning, Modality Robustness, and Semi-Supervised
Learning
- Title(参考訳): MER 2023:マルチラベル学習、モダリティロバストネス、半教師付き学習
- Authors: Zheng Lian, Haiyang Sun, Licai Sun, Jinming Zhao, Ye Liu, Bin Liu,
Jiangyan Yi, Meng Wang, Erik Cambria, Guoying Zhao, Bj\"orn W. Schuller,
Jianhua Tao
- Abstract要約: 我々は,グローバル研究者に革新的な技術開発を動機付けるために,マルチモーダル感情認識チャレンジ(MER 2023)を立ち上げる。
今年の課題として,(1)MER-MULTI,(2)MER-NOISE,(3)MER-SEMI,(3)MER-SEMI,(3)MER-MULTI,(2)MER-NOISE,(2)MER-NOISE,(3)MER-SEM Iの3つのサブチャレンジを紹介した。
MER-MULTIの平均2乗誤差(MSE)は,F1スコアで77.57%,0.82,MER-MULTIで69。
- 参考スコア(独自算出の注目度): 92.90776025346081
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Over the past few decades, multimodal emotion recognition has made remarkable
progress with the development of deep learning. However, existing technologies
are difficult to meet the demand for practical applications. To improve the
robustness, we launch a Multimodal Emotion Recognition Challenge (MER 2023) to
motivate global researchers to build innovative technologies that can further
accelerate and foster research. For this year's challenge, we present three
distinct sub-challenges: (1) MER-MULTI, in which participants recognize both
discrete and dimensional emotions; (2) MER-NOISE, in which noise is added to
test videos for modality robustness evaluation; (3) MER-SEMI, which provides
large amounts of unlabeled samples for semi-supervised learning. In this paper,
we test a variety of multimodal features and provide a competitive baseline for
each sub-challenge. Our system achieves 77.57% on the F1 score and 0.82 on the
mean squared error (MSE) for MER-MULTI, 69.82% on the F1 score and 1.12 on MSE
for MER-NOISE, and 86.75% on the F1 score for MER-SEMI, respectively. Baseline
code is available at https://github.com/zeroQiaoba/MER2023-Baseline.
- Abstract(参考訳): 過去数十年間、マルチモーダルな感情認識は、ディープラーニングの発展において顕著な進歩を遂げてきた。
しかし,既存の技術は実用化への需要を満たすことは困難である。
この堅牢性を向上させるため,我々はグローバル研究者が研究をさらに加速し促進する革新的な技術を構築する動機となるマルチモーダル感情認識チャレンジ(MER 2023)を立ち上げた。
今年の課題として,(1)参加者が離散的感情と次元的感情の両方を認識するmer-multi,(2)モダリティ・ロバスト性評価のための映像にノイズを付加するmer-noise,(3)半教師付き学習のためのラベルなしサンプルを大量に提供するmer-semiの3つの下位課題を提示した。
本稿では,様々なマルチモーダル機能をテストし,各サブキャレンジに対して競争力のあるベースラインを提供する。
MER-MULTIの平均2乗誤差(MSE)は77.57%,MER-NOISEでは69.82%,MER-NOISEでは1.12,MER-SEMIでは86.75%であった。
ベースラインコードはhttps://github.com/zeroqiaoba/mer2023-baseline。
関連論文リスト
- Leveraging Contrastive Learning and Self-Training for Multimodal Emotion Recognition with Limited Labeled Samples [18.29910296652917]
MER2024-SEMI(Semi-Supervised Learning Sub-Challenge)に対する提案手法を提案する。
この課題は、感情認識における限られた注釈付きデータの問題に対処する。
提案手法はMER2024-SEMIチャレンジで有効であることが確認され, 平均Fスコア88.25%, リーダーボード6位となった。
論文 参考訳(メタデータ) (2024-08-23T11:33:54Z) - SZTU-CMU at MER2024: Improving Emotion-LLaMA with Conv-Attention for Multimodal Emotion Recognition [65.19303535139453]
我々は,マルチモーダル感情認識におけるMER2024チャレンジのMER-NOISEとMER-OVトラックに対する勝利のアプローチを示す。
Emotion-LLaMAの高度な感情理解機能を利用して、ラベルなしサンプルの高品質なアノテーションを生成する。
MER-OVトラックでは,オープンボキャブラリアノテーションにEmotion-LLaMAを用いることで,GPT-4Vと比較して平均精度とリコールが8.52%向上した。
論文 参考訳(メタデータ) (2024-08-20T02:46:03Z) - The MuSe 2024 Multimodal Sentiment Analysis Challenge: Social Perception and Humor Recognition [64.5207572897806]
マルチモーダル・センティメント・アナリティクス・チャレンジ (MuSe) 2024は、現代の2つのマルチモーダル・インフルエンスと感情分析の問題に対処する。
Social Perception Sub-Challenge (MuSe-Perception)では、参加者は16種類の個人の社会的属性を予測する。
クロスカルカルカルチャー・ヒューモー検出サブチャレンジ(MuSe-Humor)データセットは、Passau Spontaneous Football Coach Humorデータセット上に拡張される。
論文 参考訳(メタデータ) (2024-06-11T22:26:20Z) - MER 2024: Semi-Supervised Learning, Noise Robustness, and Open-Vocabulary Multimodal Emotion Recognition [102.76954967225231]
我々は、この分野の発展を促進するために、MERシリーズのコンペティションを組織する。
昨年、私たちはMER2023を立ち上げ、マルチラベル学習、ノイズの堅牢性、半教師付き学習という3つの興味深いトピックに焦点を当てました。
今年は、データセットのサイズの拡大に加えて、オープン語彙の感情認識に関する新たなトラックを導入しました。
論文 参考訳(メタデータ) (2024-04-26T02:05:20Z) - The MuSe 2023 Multimodal Sentiment Analysis Challenge: Mimicked
Emotions, Cross-Cultural Humour, and Personalisation [69.13075715686622]
MuSe 2023は、現代の3つの異なるマルチモーダル感情と感情分析の問題に対処する共有タスクの集合である。
MuSe 2023は、さまざまな研究コミュニティから幅広いオーディエンスを集めようとしている。
論文 参考訳(メタデータ) (2023-05-05T08:53:57Z) - Multimodal Emotion Recognition with Modality-Pairwise Unsupervised
Contrastive Loss [80.79641247882012]
マルチモーダル感情認識(MER)のための教師なし特徴学習に着目した。
個別の感情を考慮し、モダリティテキスト、音声、視覚が使用される。
本手法は, 対のモダリティ間のコントラスト損失に基づくもので, MER文学における最初の試みである。
論文 参考訳(メタデータ) (2022-07-23T10:11:24Z) - ChaLearn LAP Large Scale Signer Independent Isolated Sign Language
Recognition Challenge: Design, Results and Future Research [28.949528008976493]
この研究はCVPR 2021で組織されたChaLearn LAP Large Scale Signer Independent Isolated SLR Challengeをまとめたものである。
我々は、チャレンジデザイン、トップ入賞ソリューション、今後の研究への提案について論じる。
優勝チームは96%以上の認識率を達成し、そのアプローチはポーズ/ハンド/フェイス推定、転送学習、外部データ、モダリティの融合/アンサンブル、モデル時系列情報への異なる戦略から恩恵を受けた。
論文 参考訳(メタデータ) (2021-05-11T14:17:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。