論文の概要: Seeking Subjectivity in Visual Emotion Distribution Learning
- arxiv url: http://arxiv.org/abs/2207.11875v1
- Date: Mon, 25 Jul 2022 02:20:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 13:31:00.738753
- Title: Seeking Subjectivity in Visual Emotion Distribution Learning
- Title(参考訳): 視覚感情分布学習における主観性を求めて
- Authors: Jingyuan Yang, Jie Li, Leida Li, Xiumei Wang, Yuxuan Ding, and Xinbo
Gao
- Abstract要約: 視覚感情分析(VEA)は、人々の感情を異なる視覚刺激に向けて予測することを目的としている。
既存の手法では、集団投票プロセスにおいて固有の主観性を無視して、統合されたネットワークにおける視覚的感情分布を予測することが多い。
視覚的感情分布の主観性を調べるために,新しいテキストサブジェクティビティ評価ネットワーク(SAMNet)を提案する。
- 参考スコア(独自算出の注目度): 93.96205258496697
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual Emotion Analysis (VEA), which aims to predict people's emotions
towards different visual stimuli, has become an attractive research topic
recently. Rather than a single label classification task, it is more rational
to regard VEA as a Label Distribution Learning (LDL) problem by voting from
different individuals. Existing methods often predict visual emotion
distribution in a unified network, neglecting the inherent subjectivity in its
crowd voting process. In psychology, the \textit{Object-Appraisal-Emotion}
model has demonstrated that each individual's emotion is affected by his/her
subjective appraisal, which is further formed by the affective memory. Inspired
by this, we propose a novel \textit{Subjectivity Appraise-and-Match Network
(SAMNet)} to investigate the subjectivity in visual emotion distribution. To
depict the diversity in crowd voting process, we first propose the
\textit{Subjectivity Appraising} with multiple branches, where each branch
simulates the emotion evocation process of a specific individual. Specifically,
we construct the affective memory with an attention-based mechanism to preserve
each individual's unique emotional experience. A subjectivity loss is further
proposed to guarantee the divergence between different individuals. Moreover,
we propose the \textit{Subjectivity Matching} with a matching loss, aiming at
assigning unordered emotion labels to ordered individual predictions in a
one-to-one correspondence with the Hungarian algorithm. Extensive experiments
and comparisons are conducted on public visual emotion distribution datasets,
and the results demonstrate that the proposed SAMNet consistently outperforms
the state-of-the-art methods. Ablation study verifies the effectiveness of our
method and visualization proves its interpretability.
- Abstract(参考訳): 近年,視覚刺激に対する人々の感情予測を目的とした視覚感情分析(VEA)が注目されている。
単一のラベル分類タスクではなく、異なる個人から投票することでveaをラベル分布学習(ldl)問題と考える方が合理的である。
既存の手法では、団結したネットワークで視覚的な感情分布を予測し、群衆投票の過程で固有の主観性を無視することが多い。
心理学において、 \textit{object-appraisal-emotion} モデルは、それぞれの感情が主観的な評価に影響され、さらに感情記憶によって形成されることを示した。
そこで本研究では,視覚感情分布の主観性を調べるために,新しい<textit{subjectivity appraise-and-match network (samnet)"を提案する。
群衆投票のプロセスにおける多様性を表現するために,まず,複数のブランチを持つ \textit{subjectivity appraising} を提案し,各ブランチが特定の個人の感情喚起過程をシミュレートする。
具体的には,各個人のユニークな感情体験を保ちながら,注意に基づくメカニズムで情緒記憶を構築する。
異なる個人間の相違を保証するために、主観的損失がさらに提案される。
さらに、ハンガリーのアルゴリズムと一対一の対応で、順序づけられていない感情ラベルを順序づけられた個人予測に割り当てることを目的とした、一致した損失を伴う「textit{Subjectivity Matching」を提案する。
公開視覚感情分布データセットを用いた広範囲な実験と比較を行い,提案手法が最先端手法を一貫して上回っていることを示す。
アブレーション研究は本手法の有効性を検証し,その解釈性を証明する。
関連論文リスト
- Unifying the Discrete and Continuous Emotion labels for Speech Emotion
Recognition [28.881092401807894]
音声からの感情検出のためのパラ言語分析では、感情は離散的または次元的(連続的な評価)ラベルと同一視されている。
本研究では,連続的感情特性と離散的感情特性を共同で予測するモデルを提案する。
論文 参考訳(メタデータ) (2022-10-29T16:12:31Z) - Affect-DML: Context-Aware One-Shot Recognition of Human Affect using
Deep Metric Learning [29.262204241732565]
既存の方法は、すべての関心の感情に注釈付きトレーニングの例として優先順位が与えられると仮定している。
我々は、文脈における感情のワンショット認識を概念化し、単一のサポートサンプルからより細かい粒子レベルの人間の影響状態を認識することを目的とした新しい問題である。
モデルの全変種は、ランダムなベースラインよりも明らかに優れており、セマンティックシーンのコンテキストを活用することで、学習された表現を一貫して改善している。
論文 参考訳(メタデータ) (2021-11-30T10:35:20Z) - SOLVER: Scene-Object Interrelated Visual Emotion Reasoning Network [83.27291945217424]
画像から感情を予測するために,SOLVER(Scene-Object Interrelated Visual Emotion Reasoning Network)を提案する。
異なるオブジェクト間の感情関係を掘り下げるために、まずセマンティックな概念と視覚的特徴に基づいて感情グラフを構築します。
また、シーンとオブジェクトを統合するScene-Object Fusion Moduleを設計し、シーンの特徴を利用して、提案したシーンベースのアテンションメカニズムでオブジェクトの特徴の融合プロセスを導出する。
論文 参考訳(メタデータ) (2021-10-24T02:41:41Z) - Stimuli-Aware Visual Emotion Analysis [75.68305830514007]
本稿では,刺激選択,特徴抽出,感情予測の3段階からなる刺激認識型視覚感情分析(VEA)手法を提案する。
我々の知る限りでは、エンド・ツー・エンドのネットワークでVEAに刺激選択プロセスを導入するのは初めてです。
実験により、提案手法は、4つの公的な視覚的感情データセットに対する最先端のアプローチよりも一貫して優れていることが示された。
論文 参考訳(メタデータ) (2021-09-04T08:14:52Z) - Affective Image Content Analysis: Two Decades Review and New
Perspectives [132.889649256384]
我々は,過去20年間の情緒的イメージコンテンツ分析(AICA)の発展を包括的にレビューする。
我々は、感情的ギャップ、知覚主観性、ラベルノイズと欠如という3つの主要な課題に関して、最先端の手法に焦点を当てる。
画像の内容やコンテキスト理解,グループ感情クラスタリング,ビューアーとイメージのインタラクションなど,今後の課題や研究の方向性について論じる。
論文 参考訳(メタデータ) (2021-06-30T15:20:56Z) - A Circular-Structured Representation for Visual Emotion Distribution
Learning [82.89776298753661]
視覚的感情分布学習に先立つ知識を活用するために,身近な円形構造表現を提案する。
具体的には、まず感情圏を構築し、その内にある感情状態を統一する。
提案した感情圏では、各感情分布は3つの属性で定義される感情ベクトルで表される。
論文 参考訳(メタデータ) (2021-06-23T14:53:27Z) - EmoGraph: Capturing Emotion Correlations using Graph Networks [71.53159402053392]
グラフネットワークを通じて異なる感情間の依存関係をキャプチャするEmoGraphを提案する。
EmoGraphは特にマクロF1において、強いベースラインを上回ります。
キャプチャーされた感情相関は、シングルラベルの分類作業にも有用であることを示す実験である。
論文 参考訳(メタデータ) (2020-08-21T08:59:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。