論文の概要: Revisiting Emotions Representation for Recognition in the Wild
- arxiv url: http://arxiv.org/abs/2602.06778v1
- Date: Fri, 06 Feb 2026 15:32:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 22:18:26.450638
- Title: Revisiting Emotions Representation for Recognition in the Wild
- Title(参考訳): 野生における認識のための感情表現の再検討
- Authors: Joao Baptista Cardia Neto, Claudio Ferrari, Stefano Berretti,
- Abstract要約: 複雑な感情状態を,一連の感情クラス上の確率分布として記述する新しい手法を提案する。
それぞれの分布に属する顔画像の確率を推定し、感情状態は感情の混合として記述できる。
予備的な実験では、この解の利点と新たな研究の方向性を説明する。
- 参考スコア(独自算出の注目度): 15.292517580358528
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Facial emotion recognition has been typically cast as a single-label classification problem of one out of six prototypical emotions. However, that is an oversimplification that is unsuitable for representing the multifaceted spectrum of spontaneous emotional states, which are most often the result of a combination of multiple emotions contributing at different intensities. Building on this, a promising direction that was explored recently is to cast emotion recognition as a distribution learning problem. Still, such approaches are limited in that research datasets are typically annotated with a single emotion class. In this paper, we contribute a novel approach to describe complex emotional states as probability distributions over a set of emotion classes. To do so, we propose a solution to automatically re-label existing datasets by exploiting the result of a study in which a large set of both basic and compound emotions is mapped to probability distributions in the Valence-Arousal-Dominance (VAD) space. In this way, given a face image annotated with VAD values, we can estimate the likelihood of it belonging to each of the distributions, so that emotional states can be described as a mixture of emotions, enriching their description, while also accounting for the ambiguous nature of their perception. In a preliminary set of experiments, we illustrate the advantages of this solution and a new possible direction of investigation. Data annotations are available at https://github.com/jbcnrlz/affectnet-b-annotation.
- Abstract(参考訳): 顔の感情認識は、典型的には6つの原型感情のうち1つに1つのラベルの分類問題として扱われてきた。
しかし、それは自然の感情状態の多面的スペクトルを表現するのに適さない過度な単純化であり、多くの場合、異なる強度に寄与する複数の感情の組み合わせの結果である。
これに基づいて、近年研究されている有望な方向は、感情認識を分布学習問題として位置づけることである。
しかし、そのようなアプローチは、研究データセットが1つの感情クラスで注釈付けされることに限られている。
本稿では,複雑な感情状態を記述するための新しい手法を,一連の感情クラス上での確率分布として提案する。
そこで本研究では,Valence-Arousal-Dominance(VAD)空間の確率分布に基本感情と複合感情の両方の大規模なセットをマッピングした研究結果を利用して,既存のデータセットを自動的にラベル付けする手法を提案する。
このように、VAD値が付加された顔画像から、それぞれの分布に属する可能性が推定され、感情状態が感情の混合として記述され、その説明が豊かになると同時に、その知覚の曖昧な性質も説明できる。
予備的な実験では、この解の利点と新たな研究の方向性を説明する。
データアノテーションはhttps://github.com/jbcnrlz/affectnet-b-annotationで入手できる。
関連論文リスト
- EmoVerse: A MLLMs-Driven Emotion Representation Dataset for Interpretable Visual Emotion Analysis [61.87711517626139]
EmoVerseは、解釈可能な視覚的感情分析を可能にする、大規模なオープンソースデータセットである。
219k以上の画像で、データセットはさらにカテゴリー感情状態(CES)と次元感情空間(DES)の2つのアノテーションを含んでいる。
論文 参考訳(メタデータ) (2025-11-16T11:16:50Z) - Disentangle Identity, Cooperate Emotion: Correlation-Aware Emotional Talking Portrait Generation [63.94836524433559]
DICE-Talkは、感情と同一性を切り離し、類似した特徴を持つ感情を協調するフレームワークである。
我々は、モーダル・アテンションを通して、音声と視覚の感情の手がかりを共同でモデル化するアンタングル型感情埋め込み装置を開発した。
次に,学習可能な感情バンクを用いた相関強化感情調和モジュールを提案する。
第3に、拡散過程における感情の一貫性を強制する感情識別目標を設計する。
論文 参考訳(メタデータ) (2025-04-25T05:28:21Z) - The Whole Is Bigger Than the Sum of Its Parts: Modeling Individual Annotators to Capture Emotional Variability [9.953472660494088]
感情表現と知覚はニュアンスがあり、複雑で、非常に主観的なプロセスである。
ほとんどの音声感情認識タスクは、アノテータラベルを基底真理として平均化することでこの問題に対処する。
従来の研究は感情の多様性を捉えるために分布を学習しようとしたが、これらの手法は個々のアノテータに関する情報も失っている。
本研究では,モデル学習中の感情分布の学習を可能にする連続モデル出力から分布を生成する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-08-21T19:24:06Z) - Handling Ambiguity in Emotion: From Out-of-Domain Detection to
Distribution Estimation [45.53789836426869]
感情に対する主観的な認識は、人間の注釈からの矛盾したラベルにつながる。
本稿では,あいまいな感情を扱う3つの方法について検討する。
分類器にラベルを付けない発話を付加クラスとして組み込むことで、他の感情クラスの分類性能が低下することを示す。
また,明快な深層学習を用いた感情分類における不確実性を定量化することにより,不明瞭な感情を伴う発話を領域外サンプルとして検出することを提案する。
論文 参考訳(メタデータ) (2024-02-20T09:53:38Z) - Seeking Subjectivity in Visual Emotion Distribution Learning [93.96205258496697]
視覚感情分析(VEA)は、人々の感情を異なる視覚刺激に向けて予測することを目的としている。
既存の手法では、集団投票プロセスにおいて固有の主観性を無視して、統合されたネットワークにおける視覚的感情分布を予測することが多い。
視覚的感情分布の主観性を調べるために,新しいテキストサブジェクティビティ評価ネットワーク(SAMNet)を提案する。
論文 参考訳(メタデータ) (2022-07-25T02:20:03Z) - A Circular-Structured Representation for Visual Emotion Distribution
Learning [82.89776298753661]
視覚的感情分布学習に先立つ知識を活用するために,身近な円形構造表現を提案する。
具体的には、まず感情圏を構築し、その内にある感情状態を統一する。
提案した感情圏では、各感情分布は3つの属性で定義される感情ベクトルで表される。
論文 参考訳(メタデータ) (2021-06-23T14:53:27Z) - Modality-Transferable Emotion Embeddings for Low-Resource Multimodal
Emotion Recognition [55.44502358463217]
本稿では、上記の問題に対処するため、感情を埋め込んだモダリティ変換可能なモデルを提案する。
我々のモデルは感情カテゴリーのほとんどで最先端のパフォーマンスを達成する。
私たちのモデルは、目に見えない感情に対するゼロショットと少数ショットのシナリオにおいて、既存のベースラインよりも優れています。
論文 参考訳(メタデータ) (2020-09-21T06:10:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。