論文の概要: MER 2024: Semi-Supervised Learning, Noise Robustness, and Open-Vocabulary Multimodal Emotion Recognition
- arxiv url: http://arxiv.org/abs/2404.17113v4
- Date: Thu, 18 Jul 2024 11:23:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-19 20:52:07.395198
- Title: MER 2024: Semi-Supervised Learning, Noise Robustness, and Open-Vocabulary Multimodal Emotion Recognition
- Title(参考訳): MER 2024: 半教師付き学習, ノイズロバスト性, オープン語彙マルチモーダル感情認識
- Authors: Zheng Lian, Haiyang Sun, Licai Sun, Zhuofan Wen, Siyuan Zhang, Shun Chen, Hao Gu, Jinming Zhao, Ziyang Ma, Xie Chen, Jiangyan Yi, Rui Liu, Kele Xu, Bin Liu, Erik Cambria, Guoying Zhao, Björn W. Schuller, Jianhua Tao,
- Abstract要約: 我々は、この分野の発展を促進するために、MERシリーズのコンペティションを組織する。
昨年、私たちはMER2023を立ち上げ、マルチラベル学習、ノイズの堅牢性、半教師付き学習という3つの興味深いトピックに焦点を当てました。
今年は、データセットのサイズの拡大に加えて、オープン語彙の感情認識に関する新たなトラックを導入しました。
- 参考スコア(独自算出の注目度): 102.76954967225231
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multimodal emotion recognition is an important research topic in artificial intelligence. Over the past few decades, researchers have made remarkable progress by increasing the dataset size and building more effective algorithms. However, due to problems such as complex environments and inaccurate annotations, current systems are hard to meet the demands of practical applications. Therefore, we organize the MER series of competitions to promote the development of this field. Last year, we launched MER2023, focusing on three interesting topics: multi-label learning, noise robustness, and semi-supervised learning. In this year's MER2024, besides expanding the dataset size, we further introduce a new track around open-vocabulary emotion recognition. The main purpose of this track is that existing datasets usually fix the label space and use majority voting to enhance the annotator consistency. However, this process may lead to inaccurate annotations, such as ignoring non-majority or non-candidate labels. In this track, we encourage participants to generate any number of labels in any category, aiming to describe emotional states as accurately as possible. Our baseline code relies on MERTools and is available at: https://github.com/zeroQiaoba/MERTools/tree/master/MER2024.
- Abstract(参考訳): マルチモーダル感情認識は人工知能における重要な研究課題である。
過去数十年間、研究者はデータセットのサイズを拡大し、より効率的なアルゴリズムを構築することで驚くべき進歩を遂げてきた。
しかし、複雑な環境や不正確なアノテーションなどの問題により、現在のシステムは実用アプリケーションの要求を満たすことは困難である。
そこで我々は,この分野の発展を促進するために,MERシリーズのコンペティションを組織する。
昨年、私たちはMER2023を立ち上げ、マルチラベル学習、ノイズの堅牢性、半教師付き学習という3つの興味深いトピックに焦点を当てました。
今年のMER2024では、データセットのサイズの拡大に加えて、オープン語彙の感情認識に関する新たなトラックも導入しています。
このトラックの主な目的は、既存のデータセットが通常ラベル空間を固定し、アノテータの一貫性を高めるために多数決を使用することである。
しかし、このプロセスは、非メジャーなラベルや非候補のラベルを無視するなど、不正確なアノテーションにつながる可能性がある。
本トラックでは,参加者に対して,感情状態を可能な限り正確に記述することを目的とした,任意のカテゴリのラベルの生成を奨励する。
私たちのベースラインコードはMERToolsに依存しており、https://github.com/zeroQiaoba/MERTools/tree/master/MER2024で利用可能です。
関連論文リスト
- Leveraging Contrastive Learning and Self-Training for Multimodal Emotion Recognition with Limited Labeled Samples [18.29910296652917]
MER2024-SEMI(Semi-Supervised Learning Sub-Challenge)に対する提案手法を提案する。
この課題は、感情認識における限られた注釈付きデータの問題に対処する。
提案手法はMER2024-SEMIチャレンジで有効であることが確認され, 平均Fスコア88.25%, リーダーボード6位となった。
論文 参考訳(メタデータ) (2024-08-23T11:33:54Z) - SZTU-CMU at MER2024: Improving Emotion-LLaMA with Conv-Attention for Multimodal Emotion Recognition [65.19303535139453]
我々は,マルチモーダル感情認識におけるMER2024チャレンジのMER-NOISEとMER-OVトラックに対する勝利のアプローチを示す。
Emotion-LLaMAの高度な感情理解機能を利用して、ラベルなしサンプルの高品質なアノテーションを生成する。
MER-OVトラックでは,オープンボキャブラリアノテーションにEmotion-LLaMAを用いることで,GPT-4Vと比較して平均精度とリコールが8.52%向上した。
論文 参考訳(メタデータ) (2024-08-20T02:46:03Z) - MCD: Diverse Large-Scale Multi-Campus Dataset for Robot Perception [24.67682960590225]
我々はMDDと呼ばれる包括的データセットを導入し、広範囲なセンシング・モダリティ、高精度な地上真実、多様な困難環境を特徴とする。
MCDはCCS(Classical Cylindrical Spinning)とNRE(Non-Repetitive Epicyclic)ライダー、高品質IMU(Inertial Measurement Units)、カメラ、UWB(Ultra-WideBand)センサーから構成されている。
先駆的な取り組みとして、59kのスパースNREライダースキャンで29クラスのセマンティックアノテーションを導入し、既存のセマンティックセグメンテーション研究に挑戦する。
論文 参考訳(メタデータ) (2024-03-18T06:00:38Z) - MER 2023: Multi-label Learning, Modality Robustness, and Semi-Supervised
Learning [90.17500229142755]
第1回マルチモーダル感情認識チャレンジ(MER 2023)は、ACMマルチメディアで成功した。
本稿では、この課題の背景にある動機を紹介し、ベンチマークデータセットを説明し、参加者に関する統計情報を提供する。
この高品質なデータセットは、特に中国の研究コミュニティにとって、マルチモーダルな感情認識の新しいベンチマークになり得ると考えています。
論文 参考訳(メタデータ) (2023-04-18T13:23:42Z) - Multimodal Emotion Recognition with Modality-Pairwise Unsupervised
Contrastive Loss [80.79641247882012]
マルチモーダル感情認識(MER)のための教師なし特徴学習に着目した。
個別の感情を考慮し、モダリティテキスト、音声、視覚が使用される。
本手法は, 対のモダリティ間のコントラスト損失に基づくもので, MER文学における最初の試みである。
論文 参考訳(メタデータ) (2022-07-23T10:11:24Z) - Life is not black and white -- Combining Semi-Supervised Learning with
fuzzy labels [2.550900579709111]
半教師付き学習は、追加のラベルのないデータを使用することで、この問題を解決できる可能性がある。
ファジィラベルを半監督学習に組み込むことを想定し、潜在的なコスト削減と一貫性の向上を実証する。
論文 参考訳(メタデータ) (2021-10-13T09:20:41Z) - Robust Long-Tailed Learning under Label Noise [50.00837134041317]
本研究では,長期ラベル分布におけるラベルノイズ問題について検討する。
本稿では,長期学習のための雑音検出を実現する頑健なフレームワークAlgoを提案する。
我々のフレームワークは、半教師付き学習アルゴリズムを自然に活用して一般化をさらに改善することができる。
論文 参考訳(メタデータ) (2021-08-26T03:45:00Z) - TAO: A Large-Scale Benchmark for Tracking Any Object [95.87310116010185]
オブジェクトのデータセットの追跡は2,907本の高解像度ビデオで構成され、平均で30分の長さの多様な環境でキャプチャされる。
ビデオの任意の時点で移動するオブジェクトにアノテータにラベルを付け、ファクトラムの後に名前を付けるように求めます。
我々の語彙は、既存の追跡データセットと著しく大きく、質的に異なる。
論文 参考訳(メタデータ) (2020-05-20T21:07:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。