論文の概要: Modeling Content-Emotion Duality via Disentanglement for Empathetic
Conversation
- arxiv url: http://arxiv.org/abs/2209.12495v1
- Date: Mon, 26 Sep 2022 08:07:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 15:47:45.334696
- Title: Modeling Content-Emotion Duality via Disentanglement for Empathetic
Conversation
- Title(参考訳): 共感的会話のための絡み合いによるコンテンツ・感情二重性モデリング
- Authors: Peiqin Lin, Jiashuo Wang, Hinrich Sch\"utze, Wenjie Li
- Abstract要約: 本研究では,情緒的応答生成のためのアンタングルメントを通じて,Cedual(Content-Emotion Duality)をモデル化するフレームワークを設計する。
コンテンツと感情の両方のビューから対話履歴をエンコードし、その非絡み合い表現に基づいて共感応答を生成する。
ベンチマークデータセットEMPATHETICDIALOGUESの実験は、CEDualモデルが自動メトリクスと人的メトリクスの両方で最先端のパフォーマンスを達成することを示している。
- 参考スコア(独自算出の注目度): 8.895740953121864
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The task of empathetic response generation aims to understand what feelings a
speaker expresses on his/her experiences and then reply to the speaker
appropriately. To solve the task, it is essential to model the content-emotion
duality of a dialogue, which is composed of the content view (i.e., what
personal experiences are described) and the emotion view (i.e., the feelings of
the speaker on these experiences). To this end, we design a framework to model
the Content-Emotion Duality (CEDual) via disentanglement for empathetic
response generation. With disentanglement, we encode the dialogue history from
both the content and emotion views, and then generate the empathetic response
based on the disentangled representations, thereby both the content and emotion
information of the dialogue history can be embedded in the generated response.
The experiments on the benchmark dataset EMPATHETICDIALOGUES show that the
CEDual model achieves state-of-the-art performance on both automatic and human
metrics, and it also generates more empathetic responses than previous methods.
- Abstract(参考訳): 共感的応答生成の課題は、話者が経験にどのような感情を表現しているかを理解し、適切な回答を行うことである。
この課題を解決するためには、コンテンツビュー(例えば、個人の体験が記述されているもの)と感情ビュー(つまり、これらの体験における話者の感情)からなる対話の内容と感情の双対性をモデル化することが不可欠である。
そこで我々は,情緒的応答生成のための絡み合いを通じて,Cedual(Content-Emotion Duality)をモデル化するフレームワークを設計した。
アンタングル化することで,対話履歴をコンテンツと感情の両方からエンコードし,そのアンタングル化表現に基づいて共感応答を生成し,対話履歴の内容と感情情報を生成した応答に埋め込むことができる。
ベンチマークデータセットEMPATHETICDIALOGUESの実験は、CEDualモデルが自動測定と人的計測の両方で最先端のパフォーマンスを達成し、従来の手法よりも共感的な反応を生成することを示した。
関連論文リスト
- Personality-affected Emotion Generation in Dialog Systems [67.40609683389947]
ダイアログシステムに与えられた個性に基づいて感情を生成する新しいタスクであるパーソナリティ影響感情生成を提案する。
本課題の課題,すなわち,(1)個性と感情的要因を不均一に統合し,(2)対話場面における多粒性感情情報を抽出する。
その結果,感情生成性能はマクロF1では13%,重み付きF1では5%向上することが示唆された。
論文 参考訳(メタデータ) (2024-04-03T08:48:50Z) - Emotion Rendering for Conversational Speech Synthesis with Heterogeneous
Graph-Based Context Modeling [50.99252242917458]
会話音声合成(CSS)は,会話環境の中で適切な韻律と感情のインフレクションで発話を正確に表現することを目的としている。
データ不足の問題に対処するため、私たちはカテゴリと強度の点で感情的なラベルを慎重に作成します。
我々のモデルは感情の理解と表現においてベースラインモデルよりも優れています。
論文 参考訳(メタデータ) (2023-12-19T08:47:50Z) - Exploring Emotion Expression Recognition in Older Adults Interacting
with a Virtual Coach [22.00225071959289]
EMPATHICプロジェクトは、健康な高齢者が健康を改善し、自立した高齢化を促進することができる感情表現型バーチャルコーチを設計することを目的としている。
本稿では,仮想コーチの感情表現認識モジュールの開発について概説し,データ収集,アノテーション設計,第1の方法論的アプローチについて述べる。
論文 参考訳(メタデータ) (2023-11-09T18:22:32Z) - Affective Visual Dialog: A Large-Scale Benchmark for Emotional Reasoning Based on Visually Grounded Conversations [31.707018753687098]
本稿では,視覚的な会話における感情の形成を理解するためのテストベッドとして,Affective Visual Dialogを紹介した。
この課題には,対話型質問回答,対話型感情予測,感情説明生成という3つのスキルが含まれる。
私たちの重要な貢献は、AffectVisDialと呼ばれる大規模なデータセットの収集です。
論文 参考訳(メタデータ) (2023-08-30T22:50:32Z) - deep learning of segment-level feature representation for speech emotion
recognition in conversations [9.432208348863336]
そこで本稿では,意図的文脈依存と話者感応的相互作用をキャプチャする対話型音声感情認識手法を提案する。
まず、事前訓練されたVGGishモデルを用いて、個々の発話におけるセグメントベース音声表現を抽出する。
第2に、注意的双方向リカレントユニット(GRU)は、文脈に敏感な情報をモデル化し、話者内および話者間依存関係を共同で探索する。
論文 参考訳(メタデータ) (2023-02-05T16:15:46Z) - CASE: Aligning Coarse-to-Fine Cognition and Affection for Empathetic
Response Generation [59.8935454665427]
共感的対話モデルは、通常、感情的な側面のみを考慮するか、孤立して認知と愛情を扱う。
共感的対話生成のためのCASEモデルを提案する。
論文 参考訳(メタデータ) (2022-08-18T14:28:38Z) - Constructing Emotion Consensus and Utilizing Unpaired Data for
Empathetic Dialogue Generation [22.2430593119389]
本稿では、感情のコンセンサスを同時に構築し、外部の未ペアデータを利用するための二重生成モデルDual-Empを提案する。
本手法は,コヒーレントかつ共感的応答の獲得において,競争ベースラインよりも優れる。
論文 参考訳(メタデータ) (2021-09-16T07:57:01Z) - Emotion-aware Chat Machine: Automatic Emotional Response Generation for
Human-like Emotional Interaction [55.47134146639492]
この記事では、投稿中のセマンティクスと感情を同時にエンコードできる、未定義のエンドツーエンドニューラルネットワークを提案する。
実世界のデータを用いた実験により,提案手法は,コンテンツコヒーレンスと感情の適切性の両方の観点から,最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-06T06:26:15Z) - Target Guided Emotion Aware Chat Machine [58.8346820846765]
意味レベルと感情レベルにおける投稿に対する応答の整合性は、人間のような対話を提供する対話システムにとって不可欠である。
この記事では、投稿中のセマンティクスと感情を同時にエンコードできる、未定義のエンドツーエンドニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2020-11-15T01:55:37Z) - Knowledge Bridging for Empathetic Dialogue Generation [52.39868458154947]
外部知識の不足により、感情的な対話システムは暗黙の感情を知覚し、限られた対話履歴から感情的な対話を学ぶことが困難になる。
本研究では,情緒的対話生成における感情を明確に理解し,表現するために,常識的知識や情緒的語彙的知識などの外部知識を活用することを提案する。
論文 参考訳(メタデータ) (2020-09-21T09:21:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。