論文の概要: Facial Emotion Recognition with Noisy Multi-task Annotations
- arxiv url: http://arxiv.org/abs/2010.09849v2
- Date: Tue, 24 Nov 2020 17:43:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 22:26:36.512670
- Title: Facial Emotion Recognition with Noisy Multi-task Annotations
- Title(参考訳): マルチタスクアノテーションによる顔の感情認識
- Authors: Siwei Zhang, Zhiwu Huang, Danda Pani Paudel, Luc Van Gool
- Abstract要約: ノイズの多いマルチタスクアノテーションを用いた顔の感情認識の新しい問題を提案する。
この新たな問題に対して,共同分布マッチングの観点からの定式化を提案する。
我々は,感情予測と共同分布学習を可能にする新しい手法を利用する。
- 参考スコア(独自算出の注目度): 88.42023952684052
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human emotions can be inferred from facial expressions. However, the
annotations of facial expressions are often highly noisy in common emotion
coding models, including categorical and dimensional ones. To reduce human
labelling effort on multi-task labels, we introduce a new problem of facial
emotion recognition with noisy multi-task annotations. For this new problem, we
suggest a formulation from the point of joint distribution match view, which
aims at learning more reliable correlations among raw facial images and
multi-task labels, resulting in the reduction of noise influence. In our
formulation, we exploit a new method to enable the emotion prediction and the
joint distribution learning in a unified adversarial learning game. Evaluation
throughout extensive experiments studies the real setups of the suggested new
problem, as well as the clear superiority of the proposed method over the
state-of-the-art competing methods on either the synthetic noisy labeled
CIFAR-10 or practical noisy multi-task labeled RAF and AffectNet. The code is
available at https://github.com/sanweiliti/noisyFER.
- Abstract(参考訳): 人間の感情は表情から推測できる。
しかし、表情の注釈は、カテゴリーや次元を含む共通の感情符号化モデルにおいて、しばしば非常に騒がしい。
マルチタスクラベルに対する人間のラベル付け作業を減らすために,ノイズの多いマルチタスクアノテーションを用いた顔の感情認識という新たな問題を導入する。
本稿では, 顔画像とマルチタスクラベルとのより信頼性の高い相関関係を学習し, ノイズの影響を低減することを目的とした, 共同分布マッチングの観点からの定式化を提案する。
本定式化では,一貫した対角学習ゲームにおいて,感情予測と共同分布学習を可能にする新しい手法を利用する。
広範な実験を通して、提案する新しい問題の実際のセットアップと、合成雑音ラベル cifar-10 または実用的な雑音ラベル raf と affectnet における最先端の競合手法よりも、提案手法の明らかな優位性が研究された。
コードはhttps://github.com/sanweiliti/noisyferで入手できる。
関連論文リスト
- Bridging Modalities: Knowledge Distillation and Masked Training for
Translating Multi-Modal Emotion Recognition to Uni-Modal, Speech-Only Emotion
Recognition [0.0]
本稿では、マルチモーダル感情認識モデルをより実践的なユニモーダルモデルに変換するという課題に対処する革新的なアプローチを提案する。
音声信号から感情を認識することは、人間とコンピュータの相互作用、感情コンピューティング、メンタルヘルスアセスメントにおける重要な課題である。
論文 参考訳(メタデータ) (2024-01-04T22:42:14Z) - Seeking Subjectivity in Visual Emotion Distribution Learning [93.96205258496697]
視覚感情分析(VEA)は、人々の感情を異なる視覚刺激に向けて予測することを目的としている。
既存の手法では、集団投票プロセスにおいて固有の主観性を無視して、統合されたネットワークにおける視覚的感情分布を予測することが多い。
視覚的感情分布の主観性を調べるために,新しいテキストサブジェクティビティ評価ネットワーク(SAMNet)を提案する。
論文 参考訳(メタデータ) (2022-07-25T02:20:03Z) - Learn From All: Erasing Attention Consistency for Noisy Label Facial
Expression Recognition [37.83484824542302]
新たな特徴学習の観点から,ノイズの多いラベルの扱いについて検討する。
FERモデルでは,ノイズラベルに関連性があると考えられる機能の一部に着目し,ノイズサンプルを記憶していることがわかった。
そこで本研究では,ノイズを抑えるための新しい消去注意一貫性(EAC)法を提案する。
論文 参考訳(メタデータ) (2022-07-21T04:30:33Z) - Affect-DML: Context-Aware One-Shot Recognition of Human Affect using
Deep Metric Learning [29.262204241732565]
既存の方法は、すべての関心の感情に注釈付きトレーニングの例として優先順位が与えられると仮定している。
我々は、文脈における感情のワンショット認識を概念化し、単一のサポートサンプルからより細かい粒子レベルの人間の影響状態を認識することを目的とした新しい問題である。
モデルの全変種は、ランダムなベースラインよりも明らかに優れており、セマンティックシーンのコンテキストを活用することで、学習された表現を一貫して改善している。
論文 参考訳(メタデータ) (2021-11-30T10:35:20Z) - Label Distribution Amendment with Emotional Semantic Correlations for
Facial Expression Recognition [69.18918567657757]
意味空間における表現間の相関を利用して,各顔画像のラベル分布を補正する手法を提案する。
各画像のセマンティックグラフとタスククラス関連グラフを比較することにより、そのラベル分布の信頼性を評価する。
実験により,提案手法は最先端手法と比較した場合よりも有効であることが示された。
論文 参考訳(メタデータ) (2021-07-23T07:46:14Z) - A Circular-Structured Representation for Visual Emotion Distribution
Learning [82.89776298753661]
視覚的感情分布学習に先立つ知識を活用するために,身近な円形構造表現を提案する。
具体的には、まず感情圏を構築し、その内にある感情状態を統一する。
提案した感情圏では、各感情分布は3つの属性で定義される感情ベクトルで表される。
論文 参考訳(メタデータ) (2021-06-23T14:53:27Z) - Multi-Classifier Interactive Learning for Ambiguous Speech Emotion
Recognition [9.856709988128515]
曖昧な発話感情に対処するために,MCIL (Multi-classifier Interactive Learning) 法を提案する。
MCILは、曖昧な感情の無矛盾な認識を持つ複数の個人を模倣し、新しい曖昧なラベルを構築する。
実験では、MCILは各分類器のパフォーマンスを向上させるだけでなく、認識の一貫性を中程度から実質的に向上させる。
論文 参考訳(メタデータ) (2020-12-10T02:58:34Z) - Modality-Transferable Emotion Embeddings for Low-Resource Multimodal
Emotion Recognition [55.44502358463217]
本稿では、上記の問題に対処するため、感情を埋め込んだモダリティ変換可能なモデルを提案する。
我々のモデルは感情カテゴリーのほとんどで最先端のパフォーマンスを達成する。
私たちのモデルは、目に見えない感情に対するゼロショットと少数ショットのシナリオにおいて、既存のベースラインよりも優れています。
論文 参考訳(メタデータ) (2020-09-21T06:10:39Z) - Deep Multi-task Learning for Facial Expression Recognition and Synthesis
Based on Selective Feature Sharing [28.178390846446938]
本稿では,新しい特徴共有手法を提案し,表情認識と表情合成のためのマルチタスクネットワークを構築した。
提案手法は,無用かつ有害な情報をフィルタリングしながら,異なるタスク間で有用な特徴を効果的に伝達することができる。
実験結果から, 提案手法は, 一般的に使用されている表情認識ベンチマークに対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2020-07-09T02:29:34Z) - Learning to Augment Expressions for Few-shot Fine-grained Facial
Expression Recognition [98.83578105374535]
顔表情データベースF2EDについて述べる。
顔の表情は119人から54人まで、200万枚以上の画像が含まれている。
実世界のシナリオでは,不均一なデータ分布やサンプルの欠如が一般的であるので,数発の表情学習の課題を評価する。
顔画像合成のための統合されたタスク駆動型フレームワークであるComposeal Generative Adversarial Network (Comp-GAN) 学習を提案する。
論文 参考訳(メタデータ) (2020-01-17T03:26:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。