論文の概要: ERFC: Happy Customers with Emotion Recognition and Forecasting in Conversation in Call Centers
- arxiv url: http://arxiv.org/abs/2509.18175v1
- Date: Wed, 17 Sep 2025 16:15:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 20:41:27.455957
- Title: ERFC: Happy Customers with Emotion Recognition and Forecasting in Conversation in Call Centers
- Title(参考訳): ERFC:コールセンターにおける会話における感情認識と予測による顧客満足度
- Authors: Aditi Debsharma, Bhushan Jagyasi, Surajit Sen, Priyanka Pandey, Devicharith Dovari, Yuvaraj V. C, Rosalin Parida, Gopali Contractor,
- Abstract要約: 本稿では,会話における感情認識と予測という新しいアーキテクチャを提案する。
提案するERFCアーキテクチャは,会話における話者の発話の相互依存性,感情の属性,文脈,多様性を考慮したものである。
- 参考スコア(独自算出の注目度): 0.36116808275150963
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Emotion Recognition in Conversation has been seen to be widely applicable in call center analytics, opinion mining, finance, retail, healthcare, and other industries. In a call center scenario, the role of the call center agent is not just confined to receiving calls but to also provide good customer experience by pacifying the frustration or anger of the customers. This can be achieved by maintaining neutral and positive emotion from the agent. As in any conversation, the emotion of one speaker is usually dependent on the emotion of other speaker. Hence the positive emotion of an agent, accompanied with the right resolution will help in enhancing customer experience. This can change an unhappy customer to a happy one. Imparting the right resolution at right time becomes easier if the agent has the insight of the emotion of future utterances. To predict the emotions of the future utterances we propose a novel architecture, Emotion Recognition and Forecasting in Conversation. Our proposed ERFC architecture considers multi modalities, different attributes of emotion, context and the interdependencies of the utterances of the speakers in the conversation. Our intensive experiments on the IEMOCAP dataset have shown the feasibility of the proposed ERFC. This approach can provide a tremendous business value for the applications like call center, where the happiness of customer is utmost important.
- Abstract(参考訳): 会話における感情認識は、コールセンター分析、意見マイニング、金融、小売、医療、その他の産業に広く適用されている。
コールセンターのシナリオでは、コールセンターエージェントの役割は、単に電話を受けることに限定されるだけでなく、顧客のフラストレーションや怒りを和らげることで、優れたカスタマーエクスペリエンスを提供する。
これは、エージェントからの中立的でポジティブな感情を維持することで達成できる。
他の会話と同様に、ある話者の感情は、通常他の話者の感情に依存する。
したがって、適切な解決を伴うエージェントの肯定的な感情は、顧客エクスペリエンスの向上に役立ちます。
これにより、不幸な顧客を幸せな顧客に変えることができる。
エージェントが将来の発話の感情の洞察を持てば、正しい解像度を適切なタイミングで与えることは容易になる。
今後の発話の感情を予測するために,会話における感情認識と予測という新しいアーキテクチャを提案する。
提案するERFCアーキテクチャは,会話における話者の発話の相互依存性,感情の属性,文脈,多様性を考慮したものである。
IEMOCAPデータセットに関する我々の集中的な実験は、提案した ERFC の実現可能性を示している。
このアプローチは、顧客の幸福が最重要となるコールセンタのようなアプリケーションにとって、非常に大きなビジネス価値を提供することができます。
関連論文リスト
- Are You Listening to Me? Fine-Tuning Chatbots for Empathetic Dialogue [0.5849783371898033]
感情的にリッチなインタラクションを生成するタスクにおいて,Large Language Models (LLM) がどのように反応するかを検討する。
本研究では,感情分析(VADER)と専門家評価の両方を用いて,対話の感情的進行を分析した。
論文 参考訳(メタデータ) (2025-07-03T11:32:41Z) - Sentient Agent as a Judge: Evaluating Higher-Order Social Cognition in Large Language Models [75.85319609088354]
SAGE(Sentient Agent as a Judge)は、大規模言語モデルの評価フレームワークである。
SAGEは人間のような感情の変化や内的思考をシミュレートするSentient Agentをインスタンス化する。
SAGEは、真に共感的で社会的に適応的な言語エージェントへの進捗を追跡するための、原則付き、スケーラブルで解釈可能なツールを提供する。
論文 参考訳(メタデータ) (2025-05-01T19:06:10Z) - EQ-Knight: A Memory-Augmented LLM Agent for Strategic Affective Gaming in Debt Recovery [65.30120701878582]
債権者の利益を守るために感情戦略を優先するエージェントであるEQ-Knightを提案する。
ナイーブな共感中心のボットとは異なり、EQ-Knightは感情記憶とゲーム理論推論を統合している。
回復率を損なうことなく、譲歩損失を32%減少させる。
論文 参考訳(メタデータ) (2025-03-27T01:41:34Z) - Interactive Dialogue Agents via Reinforcement Learning on Hindsight Regenerations [58.65755268815283]
多くの実際の対話は対話的であり、つまりエージェントの発話が会話の相手に影響を与えるか、情報を引き出すか、意見を変えるかである。
この事実を利用して、既存の最適データを書き直し、拡張し、オフライン強化学習(RL)を介してトレーニングする。
実際の人間によるユーザ調査の結果、我々のアプローチは既存の最先端の対話エージェントを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-07T21:37:51Z) - Personality-affected Emotion Generation in Dialog Systems [67.40609683389947]
ダイアログシステムに与えられた個性に基づいて感情を生成する新しいタスクであるパーソナリティ影響感情生成を提案する。
本課題の課題,すなわち,(1)個性と感情的要因を不均一に統合し,(2)対話場面における多粒性感情情報を抽出する。
その結果,感情生成性能はマクロF1では13%,重み付きF1では5%向上することが示唆された。
論文 参考訳(メタデータ) (2024-04-03T08:48:50Z) - "We care": Improving Code Mixed Speech Emotion Recognition in
Customer-Care Conversations [36.9886023078247]
音声感情認識(SER)は、発話中の感情を識別するタスクである。
本稿では,単語レベルのVAD値を組み込むことで,負の感情に対して,SERのタスクを2%改善することを示す。
我々の研究は、このような状況下でより丁寧で共感的な会話エージェントを開発するために利用することができる。
論文 参考訳(メタデータ) (2023-08-06T15:56:12Z) - Disambiguating Affective Stimulus Associations for Robot Perception and
Dialogue [67.89143112645556]
知覚された聴覚刺激と感情表現の関連性を学ぶことができるNICOロボットを提供します。
NICOは、感情駆動対話システムの助けを借りて、個人と特定の刺激の両方でこれを行うことができる。
ロボットは、実際のHRIシナリオにおいて、被験者の聴覚刺激の楽しさを判断するために、この情報を利用することができる。
論文 参考訳(メタデータ) (2021-03-05T20:55:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。