論文の概要: How emoji and word embedding helps to unveil emotional transitions
during online messaging
- arxiv url: http://arxiv.org/abs/2104.11032v1
- Date: Tue, 23 Mar 2021 12:45:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-07 01:48:04.115410
- Title: How emoji and word embedding helps to unveil emotional transitions
during online messaging
- Title(参考訳): 絵文字と単語の埋め込みは、オンラインメッセージング中に感情的な変化を浮かび上がらせる
- Authors: Moeen Mostafavi and Michael D. Porter
- Abstract要約: 我々は、インタラクション中の感情の変化を予測するために、Affect Control Theory(ACT)を使用する。
ACTが使用する感情的な辞書を拡張して、顧客が絵文字を使えるようにします。
私たちのフレームワークは、メッセージング中に感情的な変化と、それに応じて顧客の反応がどのように変化するかを見つけることができます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: During online chats, body-language and vocal characteristics are not part of
the communication mechanism making it challenging to facilitate an accurate
interpretation of feelings, emotions, and attitudes. The use of emojis to
express emotional feeling is an alternative approach in these types of
communication. In this project, we focus on modeling a customer's emotion in an
online messaging session with a chatbot. We use Affect Control Theory (ACT) to
predict emotional change during the interaction. To let the customer use
emojis, we also extend the affective dictionaries used by ACT. For this
purpose, we mapped Emoji2vec embedding to the affective space. Our framework
can find emotional change during messaging and how a customer's reaction is
changed accordingly.
- Abstract(参考訳): オンラインチャットでは、ボディランゲージとボーカルの特徴はコミュニケーションメカニズムの一部ではなく、感情、感情、態度の正確な解釈を促進することが困難である。
感情的な感情を表現するために絵文字を使うことは、このようなコミュニケーションにおける代替のアプローチである。
本プロジェクトでは,チャットボットを用いたオンラインメッセージングセッションにおいて,顧客の感情をモデル化することに焦点を当てる。
我々は、インタラクション中の感情の変化を予測するために、Affect Control Theory(ACT)を使用する。
顧客が絵文字を使えるようにするため、ACTが使用する感情的な辞書も拡張します。
そこで我々はEmoji2vecの埋め込みを感情空間にマッピングした。
私たちのフレームワークは、メッセージング中の感情的な変化と、それに応じて顧客の反応がどのように変化するかを見つけることができます。
関連論文リスト
- Tracking Emotional Dynamics in Chat Conversations: A Hybrid Approach using DistilBERT and Emoji Sentiment Analysis [0.0]
本稿では,テキストの感情検出と絵文字の感情分析を組み合わせることによって,チャット会話における感情動態を追跡するハイブリッドアプローチについて検討する。
Twitterデータセットは、SVM、Random Forest、AdaBoostなど、さまざまな機械学習アルゴリズムを使用して分析された。
以上の結果から,テキストと絵文字分析の統合は,顧客サービス,ワークチャット,ソーシャルメディアのインタラクションに応用可能なチャット感情の追跡に有効な方法であることが示唆された。
論文 参考訳(メタデータ) (2024-08-03T18:28:31Z) - Personality-affected Emotion Generation in Dialog Systems [67.40609683389947]
ダイアログシステムに与えられた個性に基づいて感情を生成する新しいタスクであるパーソナリティ影響感情生成を提案する。
本課題の課題,すなわち,(1)個性と感情的要因を不均一に統合し,(2)対話場面における多粒性感情情報を抽出する。
その結果,感情生成性能はマクロF1では13%,重み付きF1では5%向上することが示唆された。
論文 参考訳(メタデータ) (2024-04-03T08:48:50Z) - Attention-based Interactive Disentangling Network for Instance-level
Emotional Voice Conversion [81.1492897350032]
感情音声変換(Emotional Voice Conversion)は、非感情成分を保存しながら、与えられた感情に応じて音声を操作することを目的とする。
本稿では,音声変換にインスタンスワイドな感情知識を活用する,意図に基づく対話型ディスタングネットワーク(AINN)を提案する。
論文 参考訳(メタデータ) (2023-12-29T08:06:45Z) - Empathetic Dialogue Generation via Sensitive Emotion Recognition and
Sensible Knowledge Selection [47.60224978460442]
情緒的対話生成のためのシリアル・アンド・感情知識相互作用(SEEK)法を提案する。
我々は,会話中の感情のダイナミックス(感情の流れ)に敏感な微粒なエンコーディング戦略を用いて,応答の感情依存特性を予測するとともに,知識と感情の相互作用をモデル化し,より敏感な応答を生成する新しい枠組みを設計する。
論文 参考訳(メタデータ) (2022-10-21T03:51:18Z) - Emoji-based Co-attention Network for Microblog Sentiment Analysis [10.135289472491655]
マイクロブログ上でのテキストと絵文字間の相互感情的意味を学習する絵文字に基づくコアテンションネットワークを提案する。
本モデルは、テキストと絵文字を組み込んだ双方向の長期記憶に基づくコアテンション機構を採用し、畳み込みニューラルネットワークにシャープ・アンド・エキサイティングブロックを統合し、感情的な意味的特徴に対する感度を高める。
論文 参考訳(メタデータ) (2021-10-27T07:23:18Z) - Automatically Select Emotion for Response via Personality-affected
Emotion Transition [0.0]
ダイアログシステムは、人間のような反応に対する適切な感情を自動的に選択できるべきです。
既存のほとんどの研究は、特定の感情を反応のレンダリングやユーザーの感情に共感的に反応させることに重点を置いているが、感情表現の個人差は見過ごされている。
対話システムに人格を付与し、会話中の人間の感情遷移をシミュレートすることで、応答中の感情を自動的に選択できるようにする。
論文 参考訳(メタデータ) (2021-06-30T07:00:42Z) - SentEmojiBot: Empathising Conversations Generation with Emojis [2.2623071655418734]
絵文字とテキストの組み合わせで共感的な会話を生成するSentEmojiBotを提案する。
ユーザスタディによると、我々のモデルで生成された対話は理解でき、絵文字を追加することで会話における共感的特徴が9.8%向上した。
論文 参考訳(メタデータ) (2021-05-26T08:51:44Z) - Seen and Unseen emotional style transfer for voice conversion with a new
emotional speech dataset [84.53659233967225]
感情的音声変換は、言語内容と話者のアイデンティティを保ちながら、音声中の感情的韻律を変換することを目的としている。
可変自動符号化ワッサーシュタイン生成対向ネットワーク(VAW-GAN)に基づく新しいフレームワークを提案する。
提案するフレームワークは,ベースラインフレームワークを一貫して上回り,優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2020-10-28T07:16:18Z) - MIME: MIMicking Emotions for Empathetic Response Generation [82.57304533143756]
共感応答生成への現在のアプローチは、入力テキストで表現された感情の集合を平らな構造として見る。
共感反応は, 肯定的, 否定的, 内容に応じて, ユーザの感情を様々な程度に模倣することが多い。
論文 参考訳(メタデータ) (2020-10-04T00:35:47Z) - Converting Anyone's Emotion: Towards Speaker-Independent Emotional Voice
Conversion [83.14445041096523]
感情的音声変換は、言語内容と話者のアイデンティティを保ちながら、ある状態から別の状態へ音声の感情を変換することを目的としている。
パラレルデータを必要とせずに、誰の感情も変換できる話者非依存の感情音声変換フレームワークを提案する。
実験の結果,提案した話者非依存のフレームワークは,目に見える話者と目に見えない話者の双方に対して,競争的な結果が得られることがわかった。
論文 参考訳(メタデータ) (2020-05-13T13:36:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。