論文の概要: EmoGraph: Capturing Emotion Correlations using Graph Networks
- arxiv url: http://arxiv.org/abs/2008.09378v1
- Date: Fri, 21 Aug 2020 08:59:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 20:51:15.972967
- Title: EmoGraph: Capturing Emotion Correlations using Graph Networks
- Title(参考訳): EmoGraph: グラフネットワークを用いた感情相関のキャプチャ
- Authors: Peng Xu, Zihan Liu, Genta Indra Winata, Zhaojiang Lin, Pascale Fung
- Abstract要約: グラフネットワークを通じて異なる感情間の依存関係をキャプチャするEmoGraphを提案する。
EmoGraphは特にマクロF1において、強いベースラインを上回ります。
キャプチャーされた感情相関は、シングルラベルの分類作業にも有用であることを示す実験である。
- 参考スコア(独自算出の注目度): 71.53159402053392
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most emotion recognition methods tackle the emotion understanding task by
considering individual emotion independently while ignoring their fuzziness
nature and the interconnections among them. In this paper, we explore how
emotion correlations can be captured and help different classification tasks.
We propose EmoGraph that captures the dependencies among different emotions
through graph networks. These graphs are constructed by leveraging the
co-occurrence statistics among different emotion categories. Empirical results
on two multi-label classification datasets demonstrate that EmoGraph
outperforms strong baselines, especially for macro-F1. An additional experiment
illustrates the captured emotion correlations can also benefit a single-label
classification task.
- Abstract(参考訳): 多くの感情認識手法は、個々の感情を独立して考慮し、そのファジィな性質や相互接続を無視して感情理解課題に取り組む。
本稿では,感情相関を捉え,異なる分類タスクを支援する方法について検討する。
グラフネットワークを通じて異なる感情間の依存関係をキャプチャするEmoGraphを提案する。
これらのグラフは、異なる感情カテゴリの共起統計を利用して構築される。
2つのマルチラベル分類データセットの実証的な結果は、特にマクロF1では、EmoGraphが強いベースラインを上回っていることを示している。
さらに、キャプチャされた感情相関がシングルラベル分類タスクに役立つことを示す実験もある。
関連論文リスト
- Improved Text Emotion Prediction Using Combined Valence and Arousal Ordinal Classification [37.823815777259036]
テキストから感情を分類する手法を導入し,様々な感情の相違点と相違点を認識・区別する。
提案手法は感情予測において高い精度を保ちながら,誤分類の場合の誤りの程度を著しく低減する。
論文 参考訳(メタデータ) (2024-04-02T10:06:30Z) - Unifying the Discrete and Continuous Emotion labels for Speech Emotion
Recognition [28.881092401807894]
音声からの感情検出のためのパラ言語分析では、感情は離散的または次元的(連続的な評価)ラベルと同一視されている。
本研究では,連続的感情特性と離散的感情特性を共同で予測するモデルを提案する。
論文 参考訳(メタデータ) (2022-10-29T16:12:31Z) - Seeking Subjectivity in Visual Emotion Distribution Learning [93.96205258496697]
視覚感情分析(VEA)は、人々の感情を異なる視覚刺激に向けて予測することを目的としている。
既存の手法では、集団投票プロセスにおいて固有の主観性を無視して、統合されたネットワークにおける視覚的感情分布を予測することが多い。
視覚的感情分布の主観性を調べるために,新しいテキストサブジェクティビティ評価ネットワーク(SAMNet)を提案する。
論文 参考訳(メタデータ) (2022-07-25T02:20:03Z) - Label Distribution Amendment with Emotional Semantic Correlations for
Facial Expression Recognition [69.18918567657757]
意味空間における表現間の相関を利用して,各顔画像のラベル分布を補正する手法を提案する。
各画像のセマンティックグラフとタスククラス関連グラフを比較することにより、そのラベル分布の信頼性を評価する。
実験により,提案手法は最先端手法と比較した場合よりも有効であることが示された。
論文 参考訳(メタデータ) (2021-07-23T07:46:14Z) - A Circular-Structured Representation for Visual Emotion Distribution
Learning [82.89776298753661]
視覚的感情分布学習に先立つ知識を活用するために,身近な円形構造表現を提案する。
具体的には、まず感情圏を構築し、その内にある感情状態を統一する。
提案した感情圏では、各感情分布は3つの属性で定義される感情ベクトルで表される。
論文 参考訳(メタデータ) (2021-06-23T14:53:27Z) - Enhancing Cognitive Models of Emotions with Representation Learning [58.2386408470585]
本稿では,きめ細かな感情の埋め込み表現を生成するための,新しいディープラーニングフレームワークを提案する。
本フレームワークは,コンテキスト型埋め込みエンコーダとマルチヘッド探索モデルを統合する。
本モデルは共感対話データセット上で評価され,32種類の感情を分類する最新結果を示す。
論文 参考訳(メタデータ) (2021-04-20T16:55:15Z) - Modality-Transferable Emotion Embeddings for Low-Resource Multimodal
Emotion Recognition [55.44502358463217]
本稿では、上記の問題に対処するため、感情を埋め込んだモダリティ変換可能なモデルを提案する。
我々のモデルは感情カテゴリーのほとんどで最先端のパフォーマンスを達成する。
私たちのモデルは、目に見えない感情に対するゼロショットと少数ショットのシナリオにおいて、既存のベースラインよりも優れています。
論文 参考訳(メタデータ) (2020-09-21T06:10:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。