論文の概要: How emoji and word embedding helps to unveil emotional transitions
during online messaging
- arxiv url: http://arxiv.org/abs/2104.11032v1
- Date: Tue, 23 Mar 2021 12:45:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-07 01:48:04.115410
- Title: How emoji and word embedding helps to unveil emotional transitions
during online messaging
- Title(参考訳): 絵文字と単語の埋め込みは、オンラインメッセージング中に感情的な変化を浮かび上がらせる
- Authors: Moeen Mostafavi and Michael D. Porter
- Abstract要約: 我々は、インタラクション中の感情の変化を予測するために、Affect Control Theory(ACT)を使用する。
ACTが使用する感情的な辞書を拡張して、顧客が絵文字を使えるようにします。
私たちのフレームワークは、メッセージング中に感情的な変化と、それに応じて顧客の反応がどのように変化するかを見つけることができます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: During online chats, body-language and vocal characteristics are not part of
the communication mechanism making it challenging to facilitate an accurate
interpretation of feelings, emotions, and attitudes. The use of emojis to
express emotional feeling is an alternative approach in these types of
communication. In this project, we focus on modeling a customer's emotion in an
online messaging session with a chatbot. We use Affect Control Theory (ACT) to
predict emotional change during the interaction. To let the customer use
emojis, we also extend the affective dictionaries used by ACT. For this
purpose, we mapped Emoji2vec embedding to the affective space. Our framework
can find emotional change during messaging and how a customer's reaction is
changed accordingly.
- Abstract(参考訳): オンラインチャットでは、ボディランゲージとボーカルの特徴はコミュニケーションメカニズムの一部ではなく、感情、感情、態度の正確な解釈を促進することが困難である。
感情的な感情を表現するために絵文字を使うことは、このようなコミュニケーションにおける代替のアプローチである。
本プロジェクトでは,チャットボットを用いたオンラインメッセージングセッションにおいて,顧客の感情をモデル化することに焦点を当てる。
我々は、インタラクション中の感情の変化を予測するために、Affect Control Theory(ACT)を使用する。
顧客が絵文字を使えるようにするため、ACTが使用する感情的な辞書も拡張します。
そこで我々はEmoji2vecの埋め込みを感情空間にマッピングした。
私たちのフレームワークは、メッセージング中の感情的な変化と、それに応じて顧客の反応がどのように変化するかを見つけることができます。
関連論文リスト
- Attention-based Interactive Disentangling Network for Instance-level
Emotional Voice Conversion [81.1492897350032]
感情音声変換(Emotional Voice Conversion)は、非感情成分を保存しながら、与えられた感情に応じて音声を操作することを目的とする。
本稿では,音声変換にインスタンスワイドな感情知識を活用する,意図に基づく対話型ディスタングネットワーク(AINN)を提案する。
論文 参考訳(メタデータ) (2023-12-29T08:06:45Z) - Empathetic Dialogue Generation via Sensitive Emotion Recognition and
Sensible Knowledge Selection [47.60224978460442]
情緒的対話生成のためのシリアル・アンド・感情知識相互作用(SEEK)法を提案する。
我々は,会話中の感情のダイナミックス(感情の流れ)に敏感な微粒なエンコーディング戦略を用いて,応答の感情依存特性を予測するとともに,知識と感情の相互作用をモデル化し,より敏感な応答を生成する新しい枠組みを設計する。
論文 参考訳(メタデータ) (2022-10-21T03:51:18Z) - Emotion Intensity and its Control for Emotional Voice Conversion [77.05097999561298]
感情音声変換(EVC)は、言語内容と話者のアイデンティティを保ちながら、発話の感情状態を変換しようとする。
本稿では,感情の強さを明示的に表現し,制御することを目的とする。
本稿では,話者スタイルを言語内容から切り離し,連続した空間に埋め込み,感情埋め込みのプロトタイプを形成するスタイルに符号化することを提案する。
論文 参考訳(メタデータ) (2022-01-10T02:11:25Z) - Emoji-based Co-attention Network for Microblog Sentiment Analysis [10.135289472491655]
マイクロブログ上でのテキストと絵文字間の相互感情的意味を学習する絵文字に基づくコアテンションネットワークを提案する。
本モデルは、テキストと絵文字を組み込んだ双方向の長期記憶に基づくコアテンション機構を採用し、畳み込みニューラルネットワークにシャープ・アンド・エキサイティングブロックを統合し、感情的な意味的特徴に対する感度を高める。
論文 参考訳(メタデータ) (2021-10-27T07:23:18Z) - Automatically Select Emotion for Response via Personality-affected
Emotion Transition [0.0]
ダイアログシステムは、人間のような反応に対する適切な感情を自動的に選択できるべきです。
既存のほとんどの研究は、特定の感情を反応のレンダリングやユーザーの感情に共感的に反応させることに重点を置いているが、感情表現の個人差は見過ごされている。
対話システムに人格を付与し、会話中の人間の感情遷移をシミュレートすることで、応答中の感情を自動的に選択できるようにする。
論文 参考訳(メタデータ) (2021-06-30T07:00:42Z) - SentEmojiBot: Empathising Conversations Generation with Emojis [2.2623071655418734]
絵文字とテキストの組み合わせで共感的な会話を生成するSentEmojiBotを提案する。
ユーザスタディによると、我々のモデルで生成された対話は理解でき、絵文字を追加することで会話における共感的特徴が9.8%向上した。
論文 参考訳(メタデータ) (2021-05-26T08:51:44Z) - Towards an Online Empathetic Chatbot with Emotion Causes [10.700455393948818]
共感反応に対するユーザの感情を誘発する原因を学習することが重要である。
オンライン環境で感情の原因を収集するために、カウンセリング戦略を活用する。
提案手法の有効性を,複数のSOTA法との比較により検証した。
論文 参考訳(メタデータ) (2021-05-11T02:52:46Z) - Seen and Unseen emotional style transfer for voice conversion with a new
emotional speech dataset [84.53659233967225]
感情的音声変換は、言語内容と話者のアイデンティティを保ちながら、音声中の感情的韻律を変換することを目的としている。
可変自動符号化ワッサーシュタイン生成対向ネットワーク(VAW-GAN)に基づく新しいフレームワークを提案する。
提案するフレームワークは,ベースラインフレームワークを一貫して上回り,優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2020-10-28T07:16:18Z) - MIME: MIMicking Emotions for Empathetic Response Generation [82.57304533143756]
共感応答生成への現在のアプローチは、入力テキストで表現された感情の集合を平らな構造として見る。
共感反応は, 肯定的, 否定的, 内容に応じて, ユーザの感情を様々な程度に模倣することが多い。
論文 参考訳(メタデータ) (2020-10-04T00:35:47Z) - Converting Anyone's Emotion: Towards Speaker-Independent Emotional Voice
Conversion [83.14445041096523]
感情的音声変換は、言語内容と話者のアイデンティティを保ちながら、ある状態から別の状態へ音声の感情を変換することを目的としている。
パラレルデータを必要とせずに、誰の感情も変換できる話者非依存の感情音声変換フレームワークを提案する。
実験の結果,提案した話者非依存のフレームワークは,目に見える話者と目に見えない話者の双方に対して,競争的な結果が得られることがわかった。
論文 参考訳(メタデータ) (2020-05-13T13:36:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。