論文の概要: Emotion-Regularized Conditional Variational Autoencoder for Emotional
Response Generation
- arxiv url: http://arxiv.org/abs/2104.08857v1
- Date: Sun, 18 Apr 2021 13:53:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 14:04:56.032743
- Title: Emotion-Regularized Conditional Variational Autoencoder for Emotional
Response Generation
- Title(参考訳): 情動応答生成のための感情調整条件変分オートエンコーダ
- Authors: Yu-Ping Ruan, and Zhen-Hua Ling
- Abstract要約: 本稿では,感情対応型条件変分オートエンコーダ(Emo-CVAE)モデルを提案する。
実験の結果,エモ-CVAEモデルは従来のCVAEモデルよりも情報的かつ構造化された潜在空間を学習できることがわかった。
- 参考スコア(独自算出の注目度): 39.392929591449885
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents an emotion-regularized conditional variational
autoencoder (Emo-CVAE) model for generating emotional conversation responses.
In conventional CVAE-based emotional response generation, emotion labels are
simply used as additional conditions in prior, posterior and decoder networks.
Considering that emotion styles are naturally entangled with semantic contents
in the language space, the Emo-CVAE model utilizes emotion labels to regularize
the CVAE latent space by introducing an extra emotion prediction network. In
the training stage, the estimated latent variables are required to predict the
emotion labels and token sequences of the input responses simultaneously.
Experimental results show that our Emo-CVAE model can learn a more informative
and structured latent space than a conventional CVAE model and output responses
with better content and emotion performance than baseline CVAE and
sequence-to-sequence (Seq2Seq) models.
- Abstract(参考訳): 本稿では,感情対応型条件変分オートエンコーダ(Emo-CVAE)モデルを提案する。
従来のCVAEベースの感情応答生成では、感情ラベルは単に前・後・復号器ネットワークにおける追加条件として用いられる。
Emo-CVAEモデルでは、感情のスタイルが言語空間のセマンティックな内容と自然に絡み合っていることを考慮し、感情ラベルを用いてCVAE潜在空間を規則化する。
トレーニング段階では、推定潜在変数が入力応答の感情ラベルとトークンシーケンスを同時に予測するために必要となる。
実験結果から,エモ-CVAEモデルは従来のCVAEモデルよりも情報的かつ構造化された潜在空間を学習でき,ベースラインCVAEモデルやSeq2Seqモデルよりも優れた内容と感情特性を持つ出力応答が得られた。
関連論文リスト
- Expansion Quantization Network: An Efficient Micro-emotion Annotation and Detection Framework [2.0209172586699173]
本稿では,ラベル値をエネルギー強度レベルにマッピングする全ラベルおよびトレーニングセットラベル回帰法を提案する。
これにより、マイクロ感情検出とアノテーションのための感情量子化ネットワーク(EQN)フレームワークが確立された。
EQNフレームワークは、エネルギーレベルスコアで自動マイクロ感情アノテーションを実現する最初のフレームワークである。
論文 参考訳(メタデータ) (2024-11-09T12:09:26Z) - ECR-Chain: Advancing Generative Language Models to Better Emotion-Cause Reasoners through Reasoning Chains [61.50113532215864]
CEE(Causal Emotion Entailment)は、ターゲット発話で表現される感情を刺激する会話における因果発話を特定することを目的としている。
CEEにおける現在の研究は、主に会話のセマンティックな相互作用と感情的な相互作用をモデル化することに焦点を当てている。
本研究では,会話中の感情表現から刺激を推測するために,ステップバイステップの推論手法である感情・因果関係(ECR-Chain)を導入する。
論文 参考訳(メタデータ) (2024-05-17T15:45:08Z) - Emotion Rendering for Conversational Speech Synthesis with Heterogeneous
Graph-Based Context Modeling [50.99252242917458]
会話音声合成(CSS)は,会話環境の中で適切な韻律と感情のインフレクションで発話を正確に表現することを目的としている。
データ不足の問題に対処するため、私たちはカテゴリと強度の点で感情的なラベルを慎重に作成します。
我々のモデルは感情の理解と表現においてベースラインモデルよりも優れています。
論文 参考訳(メタデータ) (2023-12-19T08:47:50Z) - Inter Subject Emotion Recognition Using Spatio-Temporal Features From
EEG Signal [4.316570025748204]
この研究は、脳波信号から感情を独立して分類する、簡単に実装できる感情認識モデルに関するものである。
このモデルは、感情を分類するために、CNNの正規層、深さ層、分離可能な畳み込み層の組み合わせである。
精度は73.04%だった。
論文 参考訳(メタデータ) (2023-05-27T07:43:19Z) - EmotionIC: emotional inertia and contagion-driven dependency modeling for emotion recognition in conversation [34.24557248359872]
本稿では,ERCタスクに対する感情的慣性・伝染型依存性モデリング手法(EmotionIC)を提案する。
EmotionICは3つの主要コンポーネント、すなわちIDマスク付きマルチヘッド注意(IMMHA)、対話型Gated Recurrent Unit(DiaGRU)、Skip-chain Conditional Random Field(SkipCRF)から構成されている。
実験結果から,提案手法は4つのベンチマークデータセットにおいて,最先端のモデルよりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2023-03-20T13:58:35Z) - EmoCaps: Emotion Capsule based Model for Conversational Emotion
Recognition [2.359022633145476]
会話中の感情認識(ERC)は、話者の状態を分析し、会話中の感情を識別することを目的としている。
ERCにおける最近の研究は文脈モデリングに焦点を当てているが、文脈的感情傾向の表現は無視されている。
Emoformerと呼ばれる新しい構造は、異なるモーダルから複数のモーダル感情ベクトルを抽出し、それらを文ベクトルで融合して感情カプセルにする。
論文 参考訳(メタデータ) (2022-03-25T08:42:57Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - Enhancing Cognitive Models of Emotions with Representation Learning [58.2386408470585]
本稿では,きめ細かな感情の埋め込み表現を生成するための,新しいディープラーニングフレームワークを提案する。
本フレームワークは,コンテキスト型埋め込みエンコーダとマルチヘッド探索モデルを統合する。
本モデルは共感対話データセット上で評価され,32種類の感情を分類する最新結果を示す。
論文 参考訳(メタデータ) (2021-04-20T16:55:15Z) - Towards a Unified Framework for Emotion Analysis [12.369106010767283]
EmoCoderはモジュール式エンコーダ・デコーダアーキテクチャで、様々なタスクに対する感情分析を一般化する。
EmoCoderは、言語に依存しない感情の表現を学ぶ。
論文 参考訳(メタデータ) (2020-12-01T00:54:13Z) - Facial Expression Editing with Continuous Emotion Labels [76.36392210528105]
深層生成モデルは、自動表情編集の分野で素晴らしい成果を上げている。
連続した2次元の感情ラベルに従って顔画像の表情を操作できるモデルを提案する。
論文 参考訳(メタデータ) (2020-06-22T13:03:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。