論文の概要: Target Guided Emotion Aware Chat Machine
- arxiv url: http://arxiv.org/abs/2011.07432v2
- Date: Fri, 9 Apr 2021 07:36:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-25 06:45:32.928878
- Title: Target Guided Emotion Aware Chat Machine
- Title(参考訳): ターゲットガイド型感情認識チャットマシン
- Authors: Wei Wei, Jiayi Liu, Xianling Mao, Guibin Guo, Feida Zhu, Pan Zhou,
Yuchong Hu and Shanshan Feng
- Abstract要約: 意味レベルと感情レベルにおける投稿に対する応答の整合性は、人間のような対話を提供する対話システムにとって不可欠である。
この記事では、投稿中のセマンティクスと感情を同時にエンコードできる、未定義のエンドツーエンドニューラルネットワークを提案する。
- 参考スコア(独自算出の注目度): 58.8346820846765
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The consistency of a response to a given post at semantic-level and
emotional-level is essential for a dialogue system to deliver human-like
interactions. However, this challenge is not well addressed in the literature,
since most of the approaches neglect the emotional information conveyed by a
post while generating responses. This article addresses this problem by
proposing a unifed end-to-end neural architecture, which is capable of
simultaneously encoding the semantics and the emotions in a post and leverage
target information for generating more intelligent responses with appropriately
expressed emotions. Extensive experiments on real-world data demonstrate that
the proposed method outperforms the state-of-the-art methods in terms of both
content coherence and emotion appropriateness.
- Abstract(参考訳): 意味レベルと感情レベルにおける投稿に対する応答の整合性は、人間のような対話を提供する対話システムにとって不可欠である。
しかし、ほとんどのアプローチは、反応を生成しながら投稿が伝える感情情報を無視しているため、この課題は文献ではうまく解決されていない。
本論では,感情のセマンティクスと感情を同時にエンコードし,よりインテリジェントな応答を適切に表現された感情で生成するためのターゲット情報を活用する,未定義のエンドツーエンドニューラルアーキテクチャを提案する。
実世界データに対する広範囲な実験により,提案手法が,コンテンツの一貫性と感情の適切性という観点から,最先端手法よりも優れていることが示された。
関連論文リスト
- In-Depth Analysis of Emotion Recognition through Knowledge-Based Large Language Models [3.8153944233011385]
本稿では,文脈に基づく感情認識の新たな分野に寄与する。
本稿では,感情認識手法とベイジアンキュー統合を組み合わせたアプローチを提案する。
本手法は,受刑者のジレンマである社会的課題における表情の解釈の文脈で検証する。
論文 参考訳(メタデータ) (2024-07-17T06:39:51Z) - Emotion Rendering for Conversational Speech Synthesis with Heterogeneous
Graph-Based Context Modeling [50.99252242917458]
会話音声合成(CSS)は,会話環境の中で適切な韻律と感情のインフレクションで発話を正確に表現することを目的としている。
データ不足の問題に対処するため、私たちはカテゴリと強度の点で感情的なラベルを慎重に作成します。
我々のモデルは感情の理解と表現においてベースラインモデルよりも優れています。
論文 参考訳(メタデータ) (2023-12-19T08:47:50Z) - Empathetic Dialogue Generation via Sensitive Emotion Recognition and
Sensible Knowledge Selection [47.60224978460442]
情緒的対話生成のためのシリアル・アンド・感情知識相互作用(SEEK)法を提案する。
我々は,会話中の感情のダイナミックス(感情の流れ)に敏感な微粒なエンコーディング戦略を用いて,応答の感情依存特性を予測するとともに,知識と感情の相互作用をモデル化し,より敏感な応答を生成する新しい枠組みを設計する。
論文 参考訳(メタデータ) (2022-10-21T03:51:18Z) - Affective Decoding for Empathetic Response Generation [8.391383696266704]
共感応答生成のためのAffective Decodingと呼ばれる手法を提案する。
本手法は,各デコーディングステップ中に感情信号を効果的に組み込むことができる。
我々のモデルは人間の評価により共感的であると認識されている。
論文 参考訳(メタデータ) (2021-08-18T11:48:40Z) - Exemplars-guided Empathetic Response Generation Controlled by the
Elements of Human Communication [88.52901763928045]
そこで本稿では, インターロケータへの共感を伝達する, 造形モデルによる細かな構造的特性の解明に先立って, 模範的手法を提案する。
これらの手法は, 自動評価指標と人的評価指標の両方の観点から, 共感的応答品質の大幅な改善をもたらすことを実証的に示す。
論文 参考訳(メタデータ) (2021-06-22T14:02:33Z) - Emotion-aware Chat Machine: Automatic Emotional Response Generation for
Human-like Emotional Interaction [55.47134146639492]
この記事では、投稿中のセマンティクスと感情を同時にエンコードできる、未定義のエンドツーエンドニューラルネットワークを提案する。
実世界のデータを用いた実験により,提案手法は,コンテンツコヒーレンスと感情の適切性の両方の観点から,最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-06T06:26:15Z) - Acted vs. Improvised: Domain Adaptation for Elicitation Approaches in
Audio-Visual Emotion Recognition [29.916609743097215]
一般化された感情認識システムの開発における主な課題は、ラベル付きデータの不足とゴールドスタンダード参照の欠如である。
本研究では,感情誘発アプローチをドメイン知識とみなし,感情発話におけるドメイン伝達学習技術を探求する。
論文 参考訳(メタデータ) (2021-04-05T15:59:31Z) - Knowledge Bridging for Empathetic Dialogue Generation [52.39868458154947]
外部知識の不足により、感情的な対話システムは暗黙の感情を知覚し、限られた対話履歴から感情的な対話を学ぶことが困難になる。
本研究では,情緒的対話生成における感情を明確に理解し,表現するために,常識的知識や情緒的語彙的知識などの外部知識を活用することを提案する。
論文 参考訳(メタデータ) (2020-09-21T09:21:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。