論文の概要: Emotion-Aware Transformer Encoder for Empathetic Dialogue Generation
- arxiv url: http://arxiv.org/abs/2204.11320v1
- Date: Sun, 24 Apr 2022 17:05:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-26 15:05:32.033286
- Title: Emotion-Aware Transformer Encoder for Empathetic Dialogue Generation
- Title(参考訳): 共感対話生成のための感情認識変換器エンコーダ
- Authors: Raman Goel, Seba Susan, Sachin Vashisht, and Armaan Dhanda
- Abstract要約: ユーザの発話中の感情的商をキャプチャする感情認識型トランスフォーマーエンコーダを提案する。
感情検知モジュールは、初期段階におけるユーザの感情状態を決定する。
感情埋め込みによる単語埋め込みの追加と正規化を行う新しいトランスフォーマーエンコーダを提案する。
- 参考スコア(独自算出の注目度): 6.557082555839738
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Modern day conversational agents are trained to emulate the manner in which
humans communicate. To emotionally bond with the user, these virtual agents
need to be aware of the affective state of the user. Transformers are the
recent state of the art in sequence-to-sequence learning that involves training
an encoder-decoder model with word embeddings from utterance-response pairs. We
propose an emotion-aware transformer encoder for capturing the emotional
quotient in the user utterance in order to generate human-like empathetic
responses. The contributions of our paper are as follows: 1) An emotion
detector module trained on the input utterances determines the affective state
of the user in the initial phase 2) A novel transformer encoder is proposed
that adds and normalizes the word embedding with emotion embedding thereby
integrating the semantic and affective aspects of the input utterance 3) The
encoder and decoder stacks belong to the Transformer-XL architecture which is
the recent state of the art in language modeling. Experimentation on the
benchmark Facebook AI empathetic dialogue dataset confirms the efficacy of our
model from the higher BLEU-4 scores achieved for the generated responses as
compared to existing methods. Emotionally intelligent virtual agents are now a
reality and inclusion of affect as a modality in all human-machine interfaces
is foreseen in the immediate future.
- Abstract(参考訳): 現代の会話エージェントは、人間がコミュニケーションする方法をエミュレートするために訓練されている。
ユーザーと感情的に結びつくためには、これらの仮想エージェントはユーザーの感情状態を認識する必要がある。
トランスフォーマは、発話-応答ペアからの単語埋め込みでエンコーダ-デコーダモデルをトレーニングすることを含む、シーケンス-シーケンス学習における最近の技術である。
本稿では,感情認識型トランスコーダを提案する。ユーザの発話中の感情的商をキャプチャして,人間のような共感応答を生成する。
論文の貢献は以下のとおりである。
1)入力発話に訓練された感情検出モジュールは、初期段階におけるユーザの感情状態を決定する
2) 入力発話の意味的・情緒的側面を統合した感情埋め込みによる単語埋め込みを付加・正規化する新しいトランスコーダを提案する。
3) エンコーダスタックとデコーダスタックは,言語モデリングにおける最新の技術であるtransformer-xlアーキテクチャに属している。
facebook ai empathetic dialogueデータセットのベンチマークによる実験では、既存の手法と比較して、生成された応答に対して達成された高bleu-4スコアからモデルの有効性を確認した。
感情的にインテリジェントな仮想エージェントは、今や現実であり、すべてのヒューマンマシンインターフェースにおけるモダリティとしての感情の包含は、近い将来予測される。
関連論文リスト
- Multi-Modal Emotion Recognition by Text, Speech and Video Using
Pretrained Transformers [1.0152838128195467]
3つの入力モダリティ、すなわちテキスト、オーディオ(音声)、ビデオを使用してマルチモーダル特徴ベクトルを生成する。
これらのモダリティごとに特徴を生成するために、微調整付き事前学習トランスフォーマーモデルを用いる。
特徴ベクトルを結合して特徴レベルの融合とサポートベクトルマシンを用いた分類を組み合わせた最良のモデルは、75.42%の精度を達成する。
論文 参考訳(メタデータ) (2024-02-11T23:27:24Z) - Attention-based Interactive Disentangling Network for Instance-level
Emotional Voice Conversion [81.1492897350032]
感情音声変換(Emotional Voice Conversion)は、非感情成分を保存しながら、与えられた感情に応じて音声を操作することを目的とする。
本稿では,音声変換にインスタンスワイドな感情知識を活用する,意図に基づく対話型ディスタングネットワーク(AINN)を提案する。
論文 参考訳(メタデータ) (2023-12-29T08:06:45Z) - Neural-Logic Human-Object Interaction Detection [67.4993347702353]
本稿では,ニューラルロジック推論を利用した新しいHOI検出器であるL OGIC HOIと,実体間の相互作用を推測するTransformerを提案する。
具体的には,バニラトランスフォーマーの自己保持機構を改変し,人間,行動,対象>三重項を推論し,新たな相互作用を構成する。
我々はこれらの2つの特性を一階述語論理で定式化し、それらを連続空間に基底にして、我々のアプローチの学習過程を制約し、性能とゼロショットの一般化能力を向上させる。
論文 参考訳(メタデータ) (2023-11-16T11:47:53Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - Multimodal Emotion Recognition with High-level Speech and Text Features [8.141157362639182]
本稿では,wav2vec 2.0音声特徴量に対する感情認識を実現するために,新しいクロス表現音声モデルを提案する。
また、Transformerベースのモデルを用いて抽出したテキスト特徴から感情を認識するために、CNNベースのモデルをトレーニングする。
本手法は,4クラス分類問題においてIEMOCAPデータセットを用いて評価する。
論文 参考訳(メタデータ) (2021-09-29T07:08:40Z) - Emotion-aware Chat Machine: Automatic Emotional Response Generation for
Human-like Emotional Interaction [55.47134146639492]
この記事では、投稿中のセマンティクスと感情を同時にエンコードできる、未定義のエンドツーエンドニューラルネットワークを提案する。
実世界のデータを用いた実験により,提案手法は,コンテンツコヒーレンスと感情の適切性の両方の観点から,最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-06T06:26:15Z) - Multi-Task Learning of Generation and Classification for Emotion-Aware
Dialogue Response Generation [9.398596037077152]
本稿では,感情に着目したマルチタスク学習を用いたニューラル応答生成モデルを提案する。
我々のモデルは、事前訓練されたトランスフォーマーエンコーダデコーダモデルであるBARTに基づいて、応答を生成し、同時に感情を認識するよう訓練されている。
論文 参考訳(メタデータ) (2021-05-25T06:41:20Z) - Emotion Eliciting Machine: Emotion Eliciting Conversation Generation
based on Dual Generator [18.711852474600143]
ユーザのポジティブな感情を誘発する応答を生成することを目的としたポジティブな感情抽出の問題を研究する。
この問題に対処するために,弱い教師付き感情除去機械(EEM)を提案する。
EEMは、ポジティブな感情抽出で応答を生成する際に既存のモデルより優れています。
論文 参考訳(メタデータ) (2021-05-18T03:19:25Z) - Seen and Unseen emotional style transfer for voice conversion with a new
emotional speech dataset [84.53659233967225]
感情的音声変換は、言語内容と話者のアイデンティティを保ちながら、音声中の感情的韻律を変換することを目的としている。
可変自動符号化ワッサーシュタイン生成対向ネットワーク(VAW-GAN)に基づく新しいフレームワークを提案する。
提案するフレームワークは,ベースラインフレームワークを一貫して上回り,優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2020-10-28T07:16:18Z) - Converting Anyone's Emotion: Towards Speaker-Independent Emotional Voice
Conversion [83.14445041096523]
感情的音声変換は、言語内容と話者のアイデンティティを保ちながら、ある状態から別の状態へ音声の感情を変換することを目的としている。
パラレルデータを必要とせずに、誰の感情も変換できる話者非依存の感情音声変換フレームワークを提案する。
実験の結果,提案した話者非依存のフレームワークは,目に見える話者と目に見えない話者の双方に対して,競争的な結果が得られることがわかった。
論文 参考訳(メタデータ) (2020-05-13T13:36:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。