論文の概要: AffectNet+: A Database for Enhancing Facial Expression Recognition with Soft-Labels
- arxiv url: http://arxiv.org/abs/2410.22506v1
- Date: Tue, 29 Oct 2024 19:57:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-31 14:27:51.765634
- Title: AffectNet+: A Database for Enhancing Facial Expression Recognition with Soft-Labels
- Title(参考訳): AffectNet+:ソフトラベルによる表情認識を支援するデータベース
- Authors: Ali Pourramezan Fard, Mohammad Mehdi Hosseini, Timothy D. Sweeny, Mohammad H. Mahoor,
- Abstract要約: 画像に複数の感情をラベル付けするラベル付け手法により、FERデータセットを作成するための新しい手法を提案する。
提案手法の利点は, よりスムーズな決定境界の発見, マルチラベル化の実現, バイアスと不均衡データの緩和などにある。
AffectNetをベースとして,次世代の表情データセットであるAffectNet+を紹介する。
- 参考スコア(独自算出の注目度): 2.644902054473556
- License:
- Abstract: Automated Facial Expression Recognition (FER) is challenging due to intra-class variations and inter-class similarities. FER can be especially difficult when facial expressions reflect a mixture of various emotions (aka compound expressions). Existing FER datasets, such as AffectNet, provide discrete emotion labels (hard-labels), where a single category of emotion is assigned to an expression. To alleviate inter- and intra-class challenges, as well as provide a better facial expression descriptor, we propose a new approach to create FER datasets through a labeling method in which an image is labeled with more than one emotion (called soft-labels), each with different confidences. Specifically, we introduce the notion of soft-labels for facial expression datasets, a new approach to affective computing for more realistic recognition of facial expressions. To achieve this goal, we propose a novel methodology to accurately calculate soft-labels: a vector representing the extent to which multiple categories of emotion are simultaneously present within a single facial expression. Finding smoother decision boundaries, enabling multi-labeling, and mitigating bias and imbalanced data are some of the advantages of our proposed method. Building upon AffectNet, we introduce AffectNet+, the next-generation facial expression dataset. This dataset contains soft-labels, three categories of data complexity subsets, and additional metadata such as age, gender, ethnicity, head pose, facial landmarks, valence, and arousal. AffectNet+ will be made publicly accessible to researchers.
- Abstract(参考訳): 表情の自動認識(FER)は,クラス内変異とクラス間類似性により困難である。
FERは、表情が様々な感情(複合表現)の混合を反映する場合、特に困難である。
AffectNetのような既存のFERデータセットは、感情の単一のカテゴリが式に割り当てられる独立した感情ラベル(ハードラベル)を提供する。
画像に複数の感情(ソフトラベルと呼ばれる)をラベル付けしたラベル付け手法により、クラス間の課題を緩和し、より優れた表情記述子を提供するために、画像に複数の感情(ソフトラベルと呼ばれる)をラベル付けすることでFERデータセットを作成する新しいアプローチを提案する。
具体的には、表情のより現実的な認識のための感情コンピューティングの新しいアプローチである、表情データセットのためのソフトラベルの概念を紹介する。
この目的を達成するために,複数の感情のカテゴリが同時に存在する程度を表すベクトルを1つの表情で表す,ソフトラベルを正確に計算する手法を提案する。
提案手法の利点は, よりスムーズな決定境界の発見, マルチラベル化の実現, バイアスと不均衡データの緩和などにある。
AffectNetをベースとして,次世代の表情データセットであるAffectNet+を紹介する。
このデータセットには、ソフトラベル、データ複雑性サブセットの3つのカテゴリ、年齢、性別、民族、頭ポーズ、顔のランドマーク、原子価、興奮といったメタデータが含まれている。
AffectNet+は研究者に公開されている。
関連論文リスト
- Knowledge-Enhanced Facial Expression Recognition with Emotional-to-Neutral Transformation [66.53435569574135]
既存の表情認識法は、通常、個別のラベルを使って訓練済みのビジュアルエンコーダを微調整する。
視覚言語モデルによって生成されるテキスト埋め込みの豊富な知識は、識別的表情表現を学ぶための有望な代替手段である。
感情-中性変換を用いた知識強化FER法を提案する。
論文 参考訳(メタデータ) (2024-09-13T07:28:57Z) - CAGE: Circumplex Affect Guided Expression Inference [9.108319009019912]
本稿では,2つの共通データセット (AffectNet と EMOTIC) に対して,感情の概略モデルの構成要素を具備した詳細な分析を行った。
本稿では,軽量アプリケーションに適した表情予測モデルを提案する。
論文 参考訳(メタデータ) (2024-04-23T12:30:17Z) - VISTANet: VIsual Spoken Textual Additive Net for Interpretable Multimodal Emotion Recognition [21.247650660908484]
本稿では、VISTANet(Visual Textual Additive Net)というマルチモーダル感情認識システムを提案する。
VISTANetは、早期と後期の融合のハイブリッドを用いて、画像、音声、テキストのモダリティから情報を融合する。
KAAP技術は、特定の感情のクラスを予測するために、各モダリティとそれに対応する特徴の寄与を計算する。
論文 参考訳(メタデータ) (2022-08-24T11:35:51Z) - MAFW: A Large-scale, Multi-modal, Compound Affective Database for
Dynamic Facial Expression Recognition in the Wild [56.61912265155151]
大規模複合感情データベースMAFWを提案する。
各クリップには、複雑な感情カテゴリーと、クリップ内の被験者の感情行動を記述する2つの文が注釈付けされている。
複合感情のアノテーションでは、それぞれのクリップは、怒り、嫌悪感、恐怖、幸福、中立、悲しみ、驚き、軽蔑、不安、無力感、失望など、広く使われている11の感情のうちの1つ以上に分類される。
論文 参考訳(メタデータ) (2022-08-01T13:34:33Z) - Emotion Separation and Recognition from a Facial Expression by Generating the Poker Face with Vision Transformers [57.1091606948826]
我々はこれらの課題に対処するため,ポーカー・フェイス・ビジョン・トランスフォーマー (PF-ViT) と呼ばれる新しいFERモデルを提案する。
PF-ViTは、対応するポーカーフェースを生成して、乱れを認識できない感情を静的な顔画像から分離し、認識することを目的としている。
PF-ViTはバニラビジョントランスフォーマーを使用し、そのコンポーネントは大規模な表情データセット上でMasked Autoencodeerとして事前トレーニングされている。
論文 参考訳(メタデータ) (2022-07-22T13:39:06Z) - Label Distribution Amendment with Emotional Semantic Correlations for
Facial Expression Recognition [69.18918567657757]
意味空間における表現間の相関を利用して,各顔画像のラベル分布を補正する手法を提案する。
各画像のセマンティックグラフとタスククラス関連グラフを比較することにより、そのラベル分布の信頼性を評価する。
実験により,提案手法は最先端手法と比較した場合よりも有効であることが示された。
論文 参考訳(メタデータ) (2021-07-23T07:46:14Z) - Interpretable Image Emotion Recognition: A Domain Adaptation Approach Using Facial Expressions [11.808447247077902]
本稿では,ジェネリックイメージ中の感情を識別するための特徴に基づくドメイン適応手法を提案する。
これは、事前訓練されたモデルと、画像感情認識(IER)のための十分に注釈付けされたデータセットの限られた可用性の課題に対処する。
提案されたIERシステムは、IAPSaデータセットの60.98%、ArtPhotoデータセットの58.86%、FIデータセットの69.13%、EMOTICデータセットの58.06%の感情分類精度を示した。
論文 参考訳(メタデータ) (2020-11-17T02:55:16Z) - Facial Emotion Recognition with Noisy Multi-task Annotations [88.42023952684052]
ノイズの多いマルチタスクアノテーションを用いた顔の感情認識の新しい問題を提案する。
この新たな問題に対して,共同分布マッチングの観点からの定式化を提案する。
我々は,感情予測と共同分布学習を可能にする新しい手法を利用する。
論文 参考訳(メタデータ) (2020-10-19T20:39:37Z) - Learning to Augment Expressions for Few-shot Fine-grained Facial
Expression Recognition [98.83578105374535]
顔表情データベースF2EDについて述べる。
顔の表情は119人から54人まで、200万枚以上の画像が含まれている。
実世界のシナリオでは,不均一なデータ分布やサンプルの欠如が一般的であるので,数発の表情学習の課題を評価する。
顔画像合成のための統合されたタスク駆動型フレームワークであるComposeal Generative Adversarial Network (Comp-GAN) 学習を提案する。
論文 参考訳(メタデータ) (2020-01-17T03:26:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。