論文の概要: Emotion Conditioned Creative Dialog Generation
- arxiv url: http://arxiv.org/abs/2212.02907v1
- Date: Tue, 6 Dec 2022 12:05:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 16:31:32.896183
- Title: Emotion Conditioned Creative Dialog Generation
- Title(参考訳): 感情条件付き創造ダイアログ生成
- Authors: Khalid Alnajjar and Mika H\"am\"al\"ainen
- Abstract要約: 我々のモデルは、入力文と所望の感情ラベルを与えられた文脈適応応答を生成することができる。
表現された感情の強さを測定すると、怒り、恐怖、嫌悪感がモデルによって最も強く表現されることが分かる。
- 参考スコア(独自算出の注目度): 0.7233897166339269
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a DialGPT based model for generating creative dialog responses
that are conditioned based on one of the following emotions: anger, disgust,
fear, happiness, pain, sadness and surprise. Our model is capable of producing
a contextually apt response given an input sentence and a desired emotion
label. Our model is capable of expressing the desired emotion with an accuracy
of 0.6. The best performing emotions are neutral, fear and disgust. When
measuring the strength of the expressed emotion, we find that anger, fear and
disgust are expressed in the most strong fashion by the model.
- Abstract(参考訳): 本稿では,怒り,嫌悪感,恐怖,幸福,痛み,悲しみ,驚きという感情の1つに基づいて,創造的な対話応答を生成するためのダイアルGPTモデルを提案する。
我々のモデルは、入力文と所望の感情ラベルを与えられた文脈適応応答を生成することができる。
我々のモデルは、所望の感情を0.6の精度で表現できる。
最高の行動感情は中立性、恐怖、嫌悪である。
表現された感情の強さを測定すると、怒り、恐怖、嫌悪感がモデルによって最も強く表現されることが分かる。
関連論文リスト
- EmoSphere-TTS: Emotional Style and Intensity Modeling via Spherical Emotion Vector for Controllable Emotional Text-to-Speech [34.03787613163788]
EmoSphere-TTSは球面感情ベクトルを用いて表現的感情音声を合成し、合成音声の感情的スタイルと強度を制御する。
マルチアスペクト特性を反映して生成した音声の品質を向上させるための2つの条件付き対向ネットワークを提案する。
論文 参考訳(メタデータ) (2024-06-12T01:40:29Z) - Personality-affected Emotion Generation in Dialog Systems [67.40609683389947]
ダイアログシステムに与えられた個性に基づいて感情を生成する新しいタスクであるパーソナリティ影響感情生成を提案する。
本課題の課題,すなわち,(1)個性と感情的要因を不均一に統合し,(2)対話場面における多粒性感情情報を抽出する。
その結果,感情生成性能はマクロF1では13%,重み付きF1では5%向上することが示唆された。
論文 参考訳(メタデータ) (2024-04-03T08:48:50Z) - Daisy-TTS: Simulating Wider Spectrum of Emotions via Prosody Embedding Decomposition [12.605375307094416]
構造モデルに基づく感情の幅広いスペクトルをシミュレートする感情的テキスト・音声設計を提案する。
提案したデザインであるDaisy-TTSは、感情のプロキシとして感情的に分離可能な韻律埋め込みを学習するための韻律エンコーダを組み込んでいる。
論文 参考訳(メタデータ) (2024-02-22T13:15:49Z) - Speech Synthesis with Mixed Emotions [77.05097999561298]
異なる感情の音声サンプル間の相対的な差を測定する新しい定式化を提案する。
次に、私たちの定式化を、シーケンスからシーケンスまでの感情的なテキストから音声へのフレームワークに組み込む。
実行時に、感情属性ベクトルを手動で定義し、所望の感情混合を生成するためにモデルを制御する。
論文 参考訳(メタデータ) (2022-08-11T15:45:58Z) - Emotion Intensity and its Control for Emotional Voice Conversion [77.05097999561298]
感情音声変換(EVC)は、言語内容と話者のアイデンティティを保ちながら、発話の感情状態を変換しようとする。
本稿では,感情の強さを明示的に表現し,制御することを目的とする。
本稿では,話者スタイルを言語内容から切り離し,連続した空間に埋め込み,感情埋め込みのプロトタイプを形成するスタイルに符号化することを提案する。
論文 参考訳(メタデータ) (2022-01-10T02:11:25Z) - Empathetic Response Generation through Graph-based Multi-hop Reasoning
on Emotional Causality [13.619616838801006]
共感応答生成は、ユーザの感情を理解し、それを適切に応答することを目的としている。
既存の作業の多くは、単に感情が何であるかに焦点を合わせ、どのように感情が誘発されるかを無視します。
我々は、感情的因果関係、すなわち、ユーザーがどのような感情を表現しているか、なぜユーザーがそのような感情を持っているのかを考える。
論文 参考訳(メタデータ) (2021-10-09T17:12:41Z) - Perspective-taking and Pragmatics for Generating Empathetic Responses
Focused on Emotion Causes [50.569762345799354]
i) 相手の感情が発話から引き起こされる原因となる単語を特定することと, (ii) 応答生成における特定の単語を反映することである。
社会的認知からインスピレーションを得て、生成的推定を用いて、感情が単語レベルのラベルのない発話から単語を推論する。
論文 参考訳(メタデータ) (2021-09-18T04:22:49Z) - Automatically Select Emotion for Response via Personality-affected
Emotion Transition [0.0]
ダイアログシステムは、人間のような反応に対する適切な感情を自動的に選択できるべきです。
既存のほとんどの研究は、特定の感情を反応のレンダリングやユーザーの感情に共感的に反応させることに重点を置いているが、感情表現の個人差は見過ごされている。
対話システムに人格を付与し、会話中の人間の感情遷移をシミュレートすることで、応答中の感情を自動的に選択できるようにする。
論文 参考訳(メタデータ) (2021-06-30T07:00:42Z) - Emotion Eliciting Machine: Emotion Eliciting Conversation Generation
based on Dual Generator [18.711852474600143]
ユーザのポジティブな感情を誘発する応答を生成することを目的としたポジティブな感情抽出の問題を研究する。
この問題に対処するために,弱い教師付き感情除去機械(EEM)を提案する。
EEMは、ポジティブな感情抽出で応答を生成する際に既存のモデルより優れています。
論文 参考訳(メタデータ) (2021-05-18T03:19:25Z) - Enhancing Cognitive Models of Emotions with Representation Learning [58.2386408470585]
本稿では,きめ細かな感情の埋め込み表現を生成するための,新しいディープラーニングフレームワークを提案する。
本フレームワークは,コンテキスト型埋め込みエンコーダとマルチヘッド探索モデルを統合する。
本モデルは共感対話データセット上で評価され,32種類の感情を分類する最新結果を示す。
論文 参考訳(メタデータ) (2021-04-20T16:55:15Z) - MIME: MIMicking Emotions for Empathetic Response Generation [82.57304533143756]
共感応答生成への現在のアプローチは、入力テキストで表現された感情の集合を平らな構造として見る。
共感反応は, 肯定的, 否定的, 内容に応じて, ユーザの感情を様々な程度に模倣することが多い。
論文 参考訳(メタデータ) (2020-10-04T00:35:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。