論文の概要: CEFER: A Four Facets Framework based on Context and Emotion embedded
features for Implicit and Explicit Emotion Recognition
- arxiv url: http://arxiv.org/abs/2209.13999v1
- Date: Wed, 28 Sep 2022 11:16:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 16:45:13.998348
- Title: CEFER: A Four Facets Framework based on Context and Emotion embedded
features for Implicit and Explicit Emotion Recognition
- Title(参考訳): CEFER:インプシットと明示的感情認識のためのコンテキストと感情を組み込んだ4面フレームワーク
- Authors: Fereshteh Khoshnam, Ahmad Baraani-Dastjerdi, M.J. Liaghatdar
- Abstract要約: 文レベルと単語レベルの両方でテキストを解析するフレームワークを提案する。
CEFER (Context and Emotion embedded Framework for Emotion Recognition) と呼ぶ。
CEFERは、暗黙の感情を含む各単語の感情ベクトルと、文脈に基づく各単語の特徴ベクトルを結合する。
- 参考スコア(独自算出の注目度): 2.5137859989323537
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: People's conduct and reactions are driven by their emotions. Online social
media is becoming a great instrument for expressing emotions in written form.
Paying attention to the context and the entire sentence help us to detect
emotion from texts. However, this perspective inhibits us from noticing some
emotional words or phrases in the text, particularly when the words express an
emotion implicitly rather than explicitly. On the other hand, focusing only on
the words and ignoring the context results in a distorted understanding of the
sentence meaning and feeling. In this paper, we propose a framework that
analyses text at both the sentence and word levels. We name it CEFER (Context
and Emotion embedded Framework for Emotion Recognition). Our four approach
facets are to extracting data by considering the entire sentence and each
individual word simultaneously, as well as implicit and explicit emotions. The
knowledge gained from these data not only mitigates the impact of flaws in the
preceding approaches but also it strengthens the feature vector. We evaluate
several feature spaces using BERT family and design the CEFER based on them.
CEFER combines the emotional vector of each word, including explicit and
implicit emotions, with the feature vector of each word based on context. CEFER
performs better than the BERT family. The experimental results demonstrate that
identifying implicit emotions are more challenging than detecting explicit
emotions. CEFER, improves the accuracy of implicit emotion recognition.
According to the results, CEFER perform 5% better than the BERT family in
recognizing explicit emotions and 3% in implicit.
- Abstract(参考訳): 人々の行動と反応は感情によって引き起こされる。
オンラインソーシャルメディアは、感情を文字で表現するための優れた手段になりつつある。
文脈と文全体に注意を払うことは、テキストから感情を検出するのに役立つ。
しかし、この視点は、特に言葉が明示的ではなく暗黙的に感情を表現する場合、テキスト中の感情的な単語やフレーズに気づかないようにします。
一方,単語のみに着目し,文脈を無視した結果,文の意味や感覚の歪んだ理解が得られた。
本稿では,文レベルと単語レベルの両方でテキストを分析するフレームワークを提案する。
CEFER (Context and Emotion embedded Framework for Emotion Recognition) と呼ぶ。
我々の4つのアプローチは、文章全体と個々の単語を同時に考慮し、暗黙の感情と明示的な感情を抽出することである。
これらのデータから得られた知識は、以前のアプローチにおける欠陥の影響を緩和するだけでなく、特徴ベクトルも強化する。
BERTファミリを用いて複数の特徴空間を評価し,それらに基づいてCEFERを設計する。
CEFERは、暗黙の感情を含む各単語の感情ベクトルと、文脈に基づく各単語の特徴ベクトルを結合する。
CEFERはBERTファミリーよりもパフォーマンスがよい。
実験の結果,暗黙的な感情の同定は,明示的な感情の検出よりも難しいことがわかった。
CEFERは暗黙の感情認識の精度を向上させる。
結果によると、CEFERは明示的な感情認識においてBERTファミリーよりも5%、暗黙的に3%の成績を示した。
関連論文リスト
- Exploring speech style spaces with language models: Emotional TTS without emotion labels [8.288443063900825]
本研究では,感情ラベルやテキストプロンプトを必要とせず,テキスト認識を利用して感情的スタイルを習得する手法を提案する。
E-TTSの2段階フレームワークであるTEMOTTSについて述べる。
論文 参考訳(メタデータ) (2024-05-18T23:21:39Z) - Emotion-Aware Prosodic Phrasing for Expressive Text-to-Speech [47.02518401347879]
発話の感情的手がかりを正確に抽出し,適切なフレーズブレークを予測するために,感情認識型韻律表現モデル「textitEmoPP」を提案する。
まずESDデータセットの客観的な観察を行い、感情と韻律的フレーズの強い相関を検証した。
次に、感情表現性の観点から、EmoPPがすべてのベースラインと顕著なパフォーマンスを上回っていることを示す客観的および主観的評価を実現する。
論文 参考訳(メタデータ) (2023-09-21T01:51:10Z) - Emotion and Sentiment Guided Paraphrasing [3.5027291542274366]
感情の勾配に沿ってきめ細かな感情的言い回しを新たに導入する。
入力テキストとターゲットテキストを微粒な感情ラベルで拡張することにより、広く使われているパラフレーズデータセットを再構築する。
本研究では,条件付きテキスト生成のための事前学習言語モデルを活用することで,感情と感情を導出するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-08T20:59:40Z) - Automatic Emotion Experiencer Recognition [12.447379545167642]
テキストにおける経験者検出は難題であり、精度は.82、リコールは.56(F1 =.66)であることを示す。
テキストにおける経験者検出は難題であり、精度は.82、リコールは.56(F1 =.66)であることを示す。
論文 参考訳(メタデータ) (2023-05-26T08:33:28Z) - Experiencer-Specific Emotion and Appraisal Prediction [13.324006587838523]
NLPにおける感情分類は、文章や段落などの感情をテキストに割り当てる。
イベントの経験に焦点を合わせ、各イベントに感情(もしあれば)を割り当てます。
経験者の感情と評価のモデルが経験者に依存しないベースラインより優れています。
論文 参考訳(メタデータ) (2022-10-21T16:04:27Z) - Speech Synthesis with Mixed Emotions [77.05097999561298]
異なる感情の音声サンプル間の相対的な差を測定する新しい定式化を提案する。
次に、私たちの定式化を、シーケンスからシーケンスまでの感情的なテキストから音声へのフレームワークに組み込む。
実行時に、感情属性ベクトルを手動で定義し、所望の感情混合を生成するためにモデルを制御する。
論文 参考訳(メタデータ) (2022-08-11T15:45:58Z) - Accurate Emotion Strength Assessment for Seen and Unseen Speech Based on
Data-Driven Deep Learning [70.30713251031052]
本研究では,データ駆動型深層学習モデル,すなわちSenseNetを提案する。
実験の結果,提案した強度ネットの予測感情強度は,目視と目視の両方の真理値と高い相関性を示した。
論文 参考訳(メタデータ) (2022-06-15T01:25:32Z) - Emotion Intensity and its Control for Emotional Voice Conversion [77.05097999561298]
感情音声変換(EVC)は、言語内容と話者のアイデンティティを保ちながら、発話の感情状態を変換しようとする。
本稿では,感情の強さを明示的に表現し,制御することを目的とする。
本稿では,話者スタイルを言語内容から切り離し,連続した空間に埋め込み,感情埋め込みのプロトタイプを形成するスタイルに符号化することを提案する。
論文 参考訳(メタデータ) (2022-01-10T02:11:25Z) - A Circular-Structured Representation for Visual Emotion Distribution
Learning [82.89776298753661]
視覚的感情分布学習に先立つ知識を活用するために,身近な円形構造表現を提案する。
具体的には、まず感情圏を構築し、その内にある感情状態を統一する。
提案した感情圏では、各感情分布は3つの属性で定義される感情ベクトルで表される。
論文 参考訳(メタデータ) (2021-06-23T14:53:27Z) - PO-EMO: Conceptualization, Annotation, and Modeling of Aesthetic
Emotions in German and English Poetry [26.172030802168752]
我々は、詩の中の感情を、文章で表現されるものや著者が意図するものよりも、読者に誘惑されるものとして考える。
我々は,読者の審美的評価を予測可能な審美感情の集合を概念化し,各行に複数ラベルの注釈を付けることで,その文脈内での混合感情を捉えることができる。
論文 参考訳(メタデータ) (2020-03-17T13:54:48Z) - A Deep Neural Framework for Contextual Affect Detection [51.378225388679425]
感情を持たない短い単純なテキストは、その文脈と共に読むときに強い感情を表現することができる。
文中の単語の相互依存を学習する文脈影響検出フレームワークを提案する。
論文 参考訳(メタデータ) (2020-01-28T05:03:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。