論文の概要: Infusing Multi-Source Knowledge with Heterogeneous Graph Neural Network
for Emotional Conversation Generation
- arxiv url: http://arxiv.org/abs/2012.04882v1
- Date: Wed, 9 Dec 2020 06:09:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 02:06:03.471839
- Title: Infusing Multi-Source Knowledge with Heterogeneous Graph Neural Network
for Emotional Conversation Generation
- Title(参考訳): 感情対話生成のためのヘテロジニアスグラフニューラルネットワークを用いた多元知識の活用
- Authors: Yunlong Liang, Fandong Meng, Ying Zhang, Jinan Xu, Yufeng Chen and Jie
Zhou
- Abstract要約: 実世界の会話では,マルチソース情報から感情を直感的に知覚する。
感情的会話生成のための異種グラフモデルを提案する。
実験結果は,本モデルがマルチソース知識から感情を効果的に知覚できることを示した。
- 参考スコア(独自算出の注目度): 25.808037796936766
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The success of emotional conversation systems depends on sufficient
perception and appropriate expression of emotions. In a real-world
conversation, we firstly instinctively perceive emotions from multi-source
information, including the emotion flow of dialogue history, facial
expressions, and personalities of speakers, and then express suitable emotions
according to our personalities, but these multiple types of information are
insufficiently exploited in emotional conversation fields. To address this
issue, we propose a heterogeneous graph-based model for emotional conversation
generation. Specifically, we design a Heterogeneous Graph-Based Encoder to
represent the conversation content (i.e., the dialogue history, its emotion
flow, facial expressions, and speakers' personalities) with a heterogeneous
graph neural network, and then predict suitable emotions for feedback. After
that, we employ an Emotion-Personality-Aware Decoder to generate a response not
only relevant to the conversation context but also with appropriate emotions,
by taking the encoded graph representations, the predicted emotions from the
encoder and the personality of the current speaker as inputs. Experimental
results show that our model can effectively perceive emotions from multi-source
knowledge and generate a satisfactory response, which significantly outperforms
previous state-of-the-art models.
- Abstract(参考訳): 感情会話システムの成功は、十分な知覚と感情の適切な表現に依存する。
実世界の会話では、まず対話履歴、表情、話者の個性などの多元的情報から感情を本能的に知覚し、その後、我々の個性に応じて適切な感情を表現するが、これらの多種類の情報は感情的な会話分野において不十分に活用される。
そこで本研究では,感情対話生成のための不均一グラフモデルを提案する。
具体的には、異種グラフニューラルネットワークを用いて会話内容(対話履歴、感情の流れ、表情、話者の個性)を表現し、フィードバックに適した感情を予測するための異種グラフベースエンコーダを設計する。
その後、エンコードされたグラフ表現、エンコーダからの予測された感情、現在の話者のパーソナリティを入力として、会話コンテキストだけでなく適切な感情にも関連した応答を生成するために感情パーソナリティ認識デコーダを用いる。
実験結果から,本モデルがマルチソース知識から感情を効果的に知覚し,満足な応答を生成できることが示唆された。
関連論文リスト
- Personality-affected Emotion Generation in Dialog Systems [67.40609683389947]
ダイアログシステムに与えられた個性に基づいて感情を生成する新しいタスクであるパーソナリティ影響感情生成を提案する。
本課題の課題,すなわち,(1)個性と感情的要因を不均一に統合し,(2)対話場面における多粒性感情情報を抽出する。
その結果,感情生成性能はマクロF1では13%,重み付きF1では5%向上することが示唆された。
論文 参考訳(メタデータ) (2024-04-03T08:48:50Z) - Emotion Rendering for Conversational Speech Synthesis with Heterogeneous
Graph-Based Context Modeling [50.99252242917458]
会話音声合成(CSS)は,会話環境の中で適切な韻律と感情のインフレクションで発話を正確に表現することを目的としている。
データ不足の問題に対処するため、私たちはカテゴリと強度の点で感情的なラベルを慎重に作成します。
我々のモデルは感情の理解と表現においてベースラインモデルよりも優れています。
論文 参考訳(メタデータ) (2023-12-19T08:47:50Z) - E-CORE: Emotion Correlation Enhanced Empathetic Dialogue Generation [33.57399405783864]
本稿では,感情相関を改良した共感対話生成フレームワークを提案する。
具体的には、文脈に基づく感情の相互作用を捉えるために、マルチレゾリューション感情グラフを考案した。
そこで我々は,感情相関強化デコーダを提案し,新しい相関認識アグリゲーションとソフト/ハード戦略を提案する。
論文 参考訳(メタデータ) (2023-11-25T12:47:39Z) - In-the-wild Speech Emotion Conversion Using Disentangled Self-Supervised
Representations and Neural Vocoder-based Resynthesis [15.16865739526702]
本稿では,自己教師ネットワークを用いて発話の語彙的,話者的,感情的な内容を切り離す手法を提案する。
次に、HiFiGANボコーダを用いて、不整合表現をターゲット感情の音声信号に再合成する。
その結果,提案手法は入力音声の感情内容に適度に適応し,対象感情に対して自然な音声を合成できることがわかった。
論文 参考訳(メタデータ) (2023-06-02T21:02:51Z) - Empathetic Dialogue Generation via Sensitive Emotion Recognition and
Sensible Knowledge Selection [47.60224978460442]
情緒的対話生成のためのシリアル・アンド・感情知識相互作用(SEEK)法を提案する。
我々は,会話中の感情のダイナミックス(感情の流れ)に敏感な微粒なエンコーディング戦略を用いて,応答の感情依存特性を予測するとともに,知識と感情の相互作用をモデル化し,より敏感な応答を生成する新しい枠組みを設計する。
論文 参考訳(メタデータ) (2022-10-21T03:51:18Z) - Emotion Intensity and its Control for Emotional Voice Conversion [77.05097999561298]
感情音声変換(EVC)は、言語内容と話者のアイデンティティを保ちながら、発話の感情状態を変換しようとする。
本稿では,感情の強さを明示的に表現し,制御することを目的とする。
本稿では,話者スタイルを言語内容から切り離し,連続した空間に埋め込み,感情埋め込みのプロトタイプを形成するスタイルに符号化することを提案する。
論文 参考訳(メタデータ) (2022-01-10T02:11:25Z) - Automatically Select Emotion for Response via Personality-affected
Emotion Transition [0.0]
ダイアログシステムは、人間のような反応に対する適切な感情を自動的に選択できるべきです。
既存のほとんどの研究は、特定の感情を反応のレンダリングやユーザーの感情に共感的に反応させることに重点を置いているが、感情表現の個人差は見過ごされている。
対話システムに人格を付与し、会話中の人間の感情遷移をシミュレートすることで、応答中の感情を自動的に選択できるようにする。
論文 参考訳(メタデータ) (2021-06-30T07:00:42Z) - Emotion-aware Chat Machine: Automatic Emotional Response Generation for
Human-like Emotional Interaction [55.47134146639492]
この記事では、投稿中のセマンティクスと感情を同時にエンコードできる、未定義のエンドツーエンドニューラルネットワークを提案する。
実世界のデータを用いた実験により,提案手法は,コンテンツコヒーレンスと感情の適切性の両方の観点から,最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-06T06:26:15Z) - Enhancing Cognitive Models of Emotions with Representation Learning [58.2386408470585]
本稿では,きめ細かな感情の埋め込み表現を生成するための,新しいディープラーニングフレームワークを提案する。
本フレームワークは,コンテキスト型埋め込みエンコーダとマルチヘッド探索モデルを統合する。
本モデルは共感対話データセット上で評価され,32種類の感情を分類する最新結果を示す。
論文 参考訳(メタデータ) (2021-04-20T16:55:15Z) - Knowledge Bridging for Empathetic Dialogue Generation [52.39868458154947]
外部知識の不足により、感情的な対話システムは暗黙の感情を知覚し、限られた対話履歴から感情的な対話を学ぶことが困難になる。
本研究では,情緒的対話生成における感情を明確に理解し,表現するために,常識的知識や情緒的語彙的知識などの外部知識を活用することを提案する。
論文 参考訳(メタデータ) (2020-09-21T09:21:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。