論文の概要: RAF-AU Database: In-the-Wild Facial Expressions with Subjective Emotion
Judgement and Objective AU Annotations
- arxiv url: http://arxiv.org/abs/2008.05196v3
- Date: Mon, 28 Sep 2020 07:20:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 05:21:46.103461
- Title: RAF-AU Database: In-the-Wild Facial Expressions with Subjective Emotion
Judgement and Objective AU Annotations
- Title(参考訳): RAF-AUデータベース:主観的感情判断と客観的AUアノテーションを用いた顔表現
- Authors: Wenjing Yan, Shan Li, Chengtao Que, JiQuan Pei, Weihong Deng
- Abstract要約: 我々は,サインベース(AU)と判断ベース(知覚的感情)を用いたRAF-AUデータベースを開発し,野生における混合表情のアノテートを行う。
また,どのキーAUが知覚的感情に最も寄与するか,およびAUと表情の関係について予備調査を行った。
- 参考スコア(独自算出の注目度): 36.93475723886278
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Much of the work on automatic facial expression recognition relies on
databases containing a certain number of emotion classes and their exaggerated
facial configurations (generally six prototypical facial expressions), based on
Ekman's Basic Emotion Theory. However, recent studies have revealed that facial
expressions in our human life can be blended with multiple basic emotions. And
the emotion labels for these in-the-wild facial expressions cannot easily be
annotated solely on pre-defined AU patterns. How to analyze the action units
for such complex expressions is still an open question. To address this issue,
we develop a RAF-AU database that employs a sign-based (i.e., AUs) and
judgement-based (i.e., perceived emotion) approach to annotating blended facial
expressions in the wild. We first reviewed the annotation methods in existing
databases and identified crowdsourcing as a promising strategy for labeling
in-the-wild facial expressions. Then, RAF-AU was finely annotated by
experienced coders, on which we also conducted a preliminary investigation of
which key AUs contribute most to a perceived emotion, and the relationship
between AUs and facial expressions. Finally, we provided a baseline for AU
recognition in RAF-AU using popular features and multi-label learning methods.
- Abstract(参考訳): 自動表情認識の研究の多くは、エックマンの基本的な感情理論に基づいて、ある種の感情クラスとその誇張された表情(一般的に6つの原型的な表情)を含むデータベースに依存している。
しかし、最近の研究では、人間の生活における表情と複数の基本的な感情をブレンドできることが示されている。
また,これらの表情に対する感情ラベルは,事前定義されたauパターンのみにアノテートすることは容易ではない。
このような複雑な表現に対してアクションユニットをどのように分析するかは、まだ未解決の問題です。
この問題に対処するために,サインベース(AU)と判断ベース(知覚的感情)を併用したRAF-AUデータベースを開発した。
筆者らはまず,既存のデータベースにおけるアノテーション手法を概観し,クラウドソーシングを顔の表情をラベル付けするための有望な戦略として認識した。
次に,RAF-AUを経験者コーダーに微妙に注釈し,どのキーAUが知覚感情に最も寄与するか,AUと表情の関係について予備的検討を行った。
最後に、RAF-AUにおけるAU認識のベースラインとして、人気のある特徴とマルチラベル学習手法を用いた。
関連論文リスト
- ExpLLM: Towards Chain of Thought for Facial Expression Recognition [61.49849866937758]
本研究では,表情認識のための思考の正確な連鎖(CoT)を生成するExpLLMという新しい手法を提案する。
具体的には、重要な観察、全体的な感情解釈、結論の3つの観点から、CoTメカニズムを設計しました。
RAF-DBとAffectNetデータセットの実験では、ExpLLMは現在の最先端のFERメソッドよりも優れています。
論文 参考訳(メタデータ) (2024-09-04T15:50:16Z) - How Do You Perceive My Face? Recognizing Facial Expressions in Multi-Modal Context by Modeling Mental Representations [5.895694050664867]
本稿では,単純な分類タスクを超越した新しい表情分類手法を提案する。
本モデルでは,認識された顔を正確に分類し,文脈で顔を観察する際,人間によって知覚される対応する心的表現を合成する。
本研究では,人間の心的表現の近似を効果的に生成することを示す。
論文 参考訳(メタデータ) (2024-09-04T09:32:40Z) - Interpretable Explainability in Facial Emotion Recognition and
Gamification for Data Collection [0.0]
顔の感情認識モデルを訓練するには、大量のデータと高価なアノテーションプロセスが必要である。
我々は,人間の明示的なラベル付けを行なわずに,注釈付き顔感情データを取得するゲーミフィケーション手法を開発した。
プレイヤーの表情認知能力と表情能力は,繰り返しゲームプレイによって著しく向上した。
論文 参考訳(メタデータ) (2022-11-09T09:53:48Z) - MAFW: A Large-scale, Multi-modal, Compound Affective Database for
Dynamic Facial Expression Recognition in the Wild [56.61912265155151]
大規模複合感情データベースMAFWを提案する。
各クリップには、複雑な感情カテゴリーと、クリップ内の被験者の感情行動を記述する2つの文が注釈付けされている。
複合感情のアノテーションでは、それぞれのクリップは、怒り、嫌悪感、恐怖、幸福、中立、悲しみ、驚き、軽蔑、不安、無力感、失望など、広く使われている11の感情のうちの1つ以上に分類される。
論文 参考訳(メタデータ) (2022-08-01T13:34:33Z) - Emotion Separation and Recognition from a Facial Expression by Generating the Poker Face with Vision Transformers [57.1091606948826]
我々はこれらの課題に対処するため,ポーカー・フェイス・ビジョン・トランスフォーマー (PF-ViT) と呼ばれる新しいFERモデルを提案する。
PF-ViTは、対応するポーカーフェースを生成して、乱れを認識できない感情を静的な顔画像から分離し、認識することを目的としている。
PF-ViTはバニラビジョントランスフォーマーを使用し、そのコンポーネントは大規模な表情データセット上でMasked Autoencodeerとして事前トレーニングされている。
論文 参考訳(メタデータ) (2022-07-22T13:39:06Z) - The Role of Facial Expressions and Emotion in ASL [4.686078698204789]
アメリカ手話における感情と顔の関係は多岐にわたる。
単純な分類器は、顔を見るだけで、広く感情的なカテゴリーの観点で、誰かが何を言っているかを予測することができる。
論文 参考訳(メタデータ) (2022-01-19T23:11:48Z) - When Facial Expression Recognition Meets Few-Shot Learning: A Joint and
Alternate Learning Framework [60.51225419301642]
実践シナリオにおける人間の感情の多様性に対応するために,感情ガイド型類似ネットワーク(EGS-Net)を提案する。
EGS-Netは2段階の学習フレームワークに基づいた感情ブランチと類似性ブランチで構成されている。
In-the-labとin-the-wildの複合表現データセットの実験結果から,提案手法がいくつかの最先端手法に対して優れていることを示す。
論文 参考訳(メタデータ) (2022-01-18T07:24:12Z) - AU-Expression Knowledge Constrained Representation Learning for Facial
Expression Recognition [79.8779790682205]
本稿では,auアノテーションを使わずにau表現を学習し,表情認識を容易にするau表現知識制約表現学習(aue-crl)フレームワークを提案する。
課題のある非制御データセットの実験を行い,提案されたフレームワークが現状の手法よりも優れていることを実証する。
論文 参考訳(メタデータ) (2020-12-29T03:42:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。