論文の概要: Emotions as Ambiguity-aware Ordinal Representations
- arxiv url: http://arxiv.org/abs/2508.19193v2
- Date: Wed, 27 Aug 2025 16:11:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 12:43:57.518634
- Title: Emotions as Ambiguity-aware Ordinal Representations
- Title(参考訳): あいまいさを意識した正規表現としての感情
- Authors: Jingyao Wu, Matthew Barthet, David Melhart, Georgios N. Yannakakis,
- Abstract要約: 我々は、感情のアノテーションに存在するあいまいさと、感情のトレースに固有の時間的ダイナミクスの両方をキャプチャする新しいフレームワークである、あいまいさを意識した順序的感情表現を導入する。
その結果, 正規表現は非有界ラベル上で従来のあいまいさ認識モデルよりも優れていた。
- 参考スコア(独自算出の注目度): 3.527702696095888
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Emotions are inherently ambiguous and dynamic phenomena, yet existing continuous emotion recognition approaches either ignore their ambiguity or treat ambiguity as an independent and static variable over time. Motivated by this gap in the literature, in this paper we introduce ambiguity-aware ordinal emotion representations, a novel framework that captures both the ambiguity present in emotion annotation and the inherent temporal dynamics of emotional traces. Specifically, we propose approaches that model emotion ambiguity through its rate of change. We evaluate our framework on two affective corpora -- RECOLA and GameVibe -- testing our proposed approaches on both bounded (arousal, valence) and unbounded (engagement) continuous traces. Our results demonstrate that ordinal representations outperform conventional ambiguity-aware models on unbounded labels, achieving the highest Concordance Correlation Coefficient (CCC) and Signed Differential Agreement (SDA) scores, highlighting their effectiveness in modeling the traces' dynamics. For bounded traces, ordinal representations excel in SDA, revealing their superior ability to capture relative changes of annotated emotion traces.
- Abstract(参考訳): 感情は本質的にあいまいでダイナミックな現象であるが、既存の継続的な感情認識アプローチはあいまいさを無視したり、あいまいさを時間とともに独立的で静的な変数として扱う。
本論文では、感情のアノテーションに存在するあいまいさと、感情の痕跡の本質的時間的ダイナミクスの両方を捉える新しい枠組みである、あいまいさを意識した順序的感情表現を導入する。
具体的には、その変化率によって感情のあいまいさをモデル化するアプローチを提案する。
2つの感情的コーパス(RECOLAとGameVibe)でフレームワークを評価し、境界付き(覚醒的、原子価)および非境界付き(エンゲージメント的)連続トレース上で提案したアプローチをテストする。
実験の結果, 従来型アンビグニティ認識モデルよりも高い相関相関係数 (CCC) と有意差分整合 (SDA) のスコアが得られ, トレースのダイナミクスをモデル化する上での有効性が示された。
境界トレースの場合、順序表現はSDAにおいて優れており、注釈付き感情トレースの相対的変化を捉える優れた能力を示す。
関連論文リスト
- From Coarse to Nuanced: Cross-Modal Alignment of Fine-Grained Linguistic Cues and Visual Salient Regions for Dynamic Emotion Recognition [7.362433184546492]
動的表情認識は、時間的に変化する顔の動きから人間の感情を識別することを目的としている。
本手法は,動的な動作モデリング,意味的テキストの洗練,トークンレベルのクロスモーダルアライメントを統合し,感情的に有意な特徴の正確な局所化を容易にする。
論文 参考訳(メタデータ) (2025-07-16T04:15:06Z) - Disentangle Identity, Cooperate Emotion: Correlation-Aware Emotional Talking Portrait Generation [63.94836524433559]
DICE-Talkは、感情と同一性を切り離し、類似した特徴を持つ感情を協調するフレームワークである。
我々は、モーダル・アテンションを通して、音声と視覚の感情の手がかりを共同でモデル化するアンタングル型感情埋め込み装置を開発した。
次に,学習可能な感情バンクを用いた相関強化感情調和モジュールを提案する。
第3に、拡散過程における感情の一貫性を強制する感情識別目標を設計する。
論文 参考訳(メタデータ) (2025-04-25T05:28:21Z) - Continuous Adversarial Text Representation Learning for Affective Recognition [1.319058156672392]
本稿では、トランスモデルにおける感情認識の埋め込みを強化するための新しいフレームワークを提案する。
提案手法は,コントラスト学習を導くために,連続原子価覚醒ラベリングシステムを導入する。
動的トークン摂動機構を用いて,感情関連トークンに着目し,感情的手がかりに対するモデル感度を向上させる。
論文 参考訳(メタデータ) (2025-02-28T00:29:09Z) - A Unified and Interpretable Emotion Representation and Expression Generation [38.321248253111776]
我々はC2A2と呼ばれる解釈可能で統一された感情モデルを提案する。
生成した画像は豊かであり、微妙な表現を捉えていることを示す。
論文 参考訳(メタデータ) (2024-04-01T17:03:29Z) - Unifying the Discrete and Continuous Emotion labels for Speech Emotion
Recognition [28.881092401807894]
音声からの感情検出のためのパラ言語分析では、感情は離散的または次元的(連続的な評価)ラベルと同一視されている。
本研究では,連続的感情特性と離散的感情特性を共同で予測するモデルを提案する。
論文 参考訳(メタデータ) (2022-10-29T16:12:31Z) - Seeking Subjectivity in Visual Emotion Distribution Learning [93.96205258496697]
視覚感情分析(VEA)は、人々の感情を異なる視覚刺激に向けて予測することを目的としている。
既存の手法では、集団投票プロセスにおいて固有の主観性を無視して、統合されたネットワークにおける視覚的感情分布を予測することが多い。
視覚的感情分布の主観性を調べるために,新しいテキストサブジェクティビティ評価ネットワーク(SAMNet)を提案する。
論文 参考訳(メタデータ) (2022-07-25T02:20:03Z) - A Circular-Structured Representation for Visual Emotion Distribution
Learning [82.89776298753661]
視覚的感情分布学習に先立つ知識を活用するために,身近な円形構造表現を提案する。
具体的には、まず感情圏を構築し、その内にある感情状態を統一する。
提案した感情圏では、各感情分布は3つの属性で定義される感情ベクトルで表される。
論文 参考訳(メタデータ) (2021-06-23T14:53:27Z) - Modality-Transferable Emotion Embeddings for Low-Resource Multimodal
Emotion Recognition [55.44502358463217]
本稿では、上記の問題に対処するため、感情を埋め込んだモダリティ変換可能なモデルを提案する。
我々のモデルは感情カテゴリーのほとんどで最先端のパフォーマンスを達成する。
私たちのモデルは、目に見えない感情に対するゼロショットと少数ショットのシナリオにおいて、既存のベースラインよりも優れています。
論文 参考訳(メタデータ) (2020-09-21T06:10:39Z) - Facial Expression Editing with Continuous Emotion Labels [76.36392210528105]
深層生成モデルは、自動表情編集の分野で素晴らしい成果を上げている。
連続した2次元の感情ラベルに従って顔画像の表情を操作できるモデルを提案する。
論文 参考訳(メタデータ) (2020-06-22T13:03:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。