論文の概要: A Circular-Structured Representation for Visual Emotion Distribution
Learning
- arxiv url: http://arxiv.org/abs/2106.12450v1
- Date: Wed, 23 Jun 2021 14:53:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2021-06-24 15:19:33.679580
- Title: A Circular-Structured Representation for Visual Emotion Distribution
Learning
- Title(参考訳): 視覚感情分布学習のための円構造表現
- Authors: Jingyuan Yang, Ji Lie, Leida Li, Xiumei Wang, and Xinbo Gao
- Abstract要約: 視覚的感情分布学習に先立つ知識を活用するために,身近な円形構造表現を提案する。
具体的には、まず感情圏を構築し、その内にある感情状態を統一する。
提案した感情圏では、各感情分布は3つの属性で定義される感情ベクトルで表される。
- 参考スコア(独自算出の注目度): 82.89776298753661
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual Emotion Analysis (VEA) has attracted increasing attention recently
with the prevalence of sharing images on social networks. Since human emotions
are ambiguous and subjective, it is more reasonable to address VEA in a label
distribution learning (LDL) paradigm rather than a single-label classification
task. Different from other LDL tasks, there exist intrinsic relationships
between emotions and unique characteristics within them, as demonstrated in
psychological theories. Inspired by this, we propose a well-grounded
circular-structured representation to utilize the prior knowledge for visual
emotion distribution learning. To be specific, we first construct an Emotion
Circle to unify any emotional state within it. On the proposed Emotion Circle,
each emotion distribution is represented with an emotion vector, which is
defined with three attributes (i.e., emotion polarity, emotion type, emotion
intensity) as well as two properties (i.e., similarity, additivity). Besides,
we design a novel Progressive Circular (PC) loss to penalize the
dissimilarities between predicted emotion vector and labeled one in a
coarse-to-fine manner, which further boosts the learning process in an
emotion-specific way. Extensive experiments and comparisons are conducted on
public visual emotion distribution datasets, and the results demonstrate that
the proposed method outperforms the state-of-the-art methods.
- Abstract(参考訳): 視覚感情分析(vea)は,近年,ソーシャルネットワーク上で画像共有が普及するにつれて注目を浴びている。
人間の感情は曖昧で主観的であるため、単一ラベル分類タスクよりもラベル分散学習(LDL)パラダイムでVEAに取り組む方が妥当である。
他のLCLタスクと異なり、心理学理論で示されるように、感情とその内固有の特徴の間に固有の関係が存在する。
そこで本研究では,視覚的感情分布学習に先立つ知識を活かした,身近な円形構造表現を提案する。
具体的には、まず感情圏を構築し、その中の感情状態を統一する。
提案した感情圏では、感情分布は感情ベクトルで表され、3つの属性(感情の極性、感情のタイプ、感情の強さ)と2つの特性(類似性、付加性)で定義される。
さらに,予測された感情ベクトルとラベル付き感情ベクトルとの相違を粗い方法でペナルティ化する新たなプログレッシブ・サークル(PC)の損失を設計し,さらに感情特異的な学習プロセスを促進させる。
公開視覚感情分布データセット上での広範な実験と比較を行い,提案手法が最先端手法よりも優れていることを示す。
関連論文リスト
- Where are We in Event-centric Emotion Analysis? Bridging Emotion Role
Labeling and Appraisal-based Approaches [10.736626320566707]
テキストにおける感情分析という用語は、様々な自然言語処理タスクを仮定する。
感情と出来事は2つの方法で関連していると我々は主張する。
我々は,NLPモデルに心理的評価理論を組み込んで事象を解釈する方法について議論する。
論文 参考訳(メタデータ) (2023-09-05T09:56:29Z) - Speech Synthesis with Mixed Emotions [77.05097999561298]
異なる感情の音声サンプル間の相対的な差を測定する新しい定式化を提案する。
次に、私たちの定式化を、シーケンスからシーケンスまでの感情的なテキストから音声へのフレームワークに組み込む。
実行時に、感情属性ベクトルを手動で定義し、所望の感情混合を生成するためにモデルを制御する。
論文 参考訳(メタデータ) (2022-08-11T15:45:58Z) - Seeking Subjectivity in Visual Emotion Distribution Learning [93.96205258496697]
視覚感情分析(VEA)は、人々の感情を異なる視覚刺激に向けて予測することを目的としている。
既存の手法では、集団投票プロセスにおいて固有の主観性を無視して、統合されたネットワークにおける視覚的感情分布を予測することが多い。
視覚的感情分布の主観性を調べるために,新しいテキストサブジェクティビティ評価ネットワーク(SAMNet)を提案する。
論文 参考訳(メタデータ) (2022-07-25T02:20:03Z) - SOLVER: Scene-Object Interrelated Visual Emotion Reasoning Network [83.27291945217424]
画像から感情を予測するために,SOLVER(Scene-Object Interrelated Visual Emotion Reasoning Network)を提案する。
異なるオブジェクト間の感情関係を掘り下げるために、まずセマンティックな概念と視覚的特徴に基づいて感情グラフを構築します。
また、シーンとオブジェクトを統合するScene-Object Fusion Moduleを設計し、シーンの特徴を利用して、提案したシーンベースのアテンションメカニズムでオブジェクトの特徴の融合プロセスを導出する。
論文 参考訳(メタデータ) (2021-10-24T02:41:41Z) - Stimuli-Aware Visual Emotion Analysis [75.68305830514007]
本稿では,刺激選択,特徴抽出,感情予測の3段階からなる刺激認識型視覚感情分析(VEA)手法を提案する。
我々の知る限りでは、エンド・ツー・エンドのネットワークでVEAに刺激選択プロセスを導入するのは初めてです。
実験により、提案手法は、4つの公的な視覚的感情データセットに対する最先端のアプローチよりも一貫して優れていることが示された。
論文 参考訳(メタデータ) (2021-09-04T08:14:52Z) - Emotion Recognition under Consideration of the Emotion Component Process
Model [9.595357496779394]
我々はScherer (2005) による感情成分プロセスモデル (CPM) を用いて感情コミュニケーションを説明する。
CPMは、感情は、出来事、すなわち主観的感情、認知的評価、表現、生理的身体反応、動機的行動傾向に対する様々なサブコンポーネントの協調過程であると述べている。
Twitter上での感情は、主に出来事の説明や主観的な感情の報告によって表現されているのに対し、文献では、著者はキャラクターが何をしているかを記述し、解釈を読者に任せることを好む。
論文 参考訳(メタデータ) (2021-07-27T15:53:25Z) - Enhancing Cognitive Models of Emotions with Representation Learning [58.2386408470585]
本稿では,きめ細かな感情の埋め込み表現を生成するための,新しいディープラーニングフレームワークを提案する。
本フレームワークは,コンテキスト型埋め込みエンコーダとマルチヘッド探索モデルを統合する。
本モデルは共感対話データセット上で評価され,32種類の感情を分類する最新結果を示す。
論文 参考訳(メタデータ) (2021-04-20T16:55:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。