論文の概要: AI on My Shoulder: Supporting Emotional Labor in Front-Office Roles with an LLM-based Empathetic Coworker
- arxiv url: http://arxiv.org/abs/2411.02408v1
- Date: Fri, 18 Oct 2024 15:22:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-10 12:31:19.265048
- Title: AI on My Shoulder: Supporting Emotional Labor in Front-Office Roles with an LLM-based Empathetic Coworker
- Title(参考訳): AI on My Shoulder:LLMベースの共感的同僚によるフロントオフィスの役割における感情労働の支援
- Authors: Vedant Das Swain, Qiuyue "Joy" Zhong, Jash Rajesh Parekh, Yechan Jeon, Roy Zimmerman, Mary Czerwinski, Jina Suh, Varun Mishra, Koustuv Saha, Javier Hernandez,
- Abstract要約: Pro-Pilotは、クライアントサービス代表者(CSR)が悪質なクライアントと対話しながら感情を調整できるように設計されたAIアシスタントである。
比較分析では,様々なシビルティインシデントに適応し,共感を示すPro-Pilotの能力を示す。
シミュレーション演習でPro-Pilotと対話した20人のCSRにインタビューしたところ、ネガティブな思考、最近の思考、そして顧客を人間化するのに役立ちました。
- 参考スコア(独自算出の注目度): 17.940894424179664
- License:
- Abstract: Client-Service Representatives (CSRs) are vital to organizations. Frequent interactions with disgruntled clients, however, disrupt their mental well-being. To help CSRs regulate their emotions while interacting with uncivil clients, we designed Pro-Pilot, an LLM-powered assistant, and evaluated its efficacy, perception, and use. Our comparative analyses between 665 human and Pro-Pilot-generated support messages demonstrate Pro-Pilot's ability to adapt to and demonstrate empathy in various incivility incidents. Additionally, 143 CSRs assessed Pro-Pilot's empathy as more sincere and actionable than human messages. Finally, we interviewed 20 CSRs who interacted with Pro-Pilot in a simulation exercise. They reported that Pro-Pilot helped them avoid negative thinking, recenter thoughts, and humanize clients; showing potential for bridging gaps in coworker support. Yet, they also noted deployment challenges and emphasized the irreplaceability of shared experiences. We discuss future designs and societal implications of AI-mediated emotional labor, underscoring empathy as a critical function for AI assistants in front-office roles.
- Abstract(参考訳): クライアントサービス代表(CSR)は組織にとって不可欠です。
しかし、不満を抱いた顧客との頻繁な交流は、彼らの精神的幸福を損なう。
そこで我々は,LLMを利用したアシスタントであるPro-Pilotを設計し,その有効性,知覚,使用性を評価した。
665人の人間とPro-Pilotが生成するサポートメッセージの比較分析は、Pro-Pilotが様々なインシビティインシデントに適応し共感を示す能力を示している。
さらに143人のCSRは、Pro-Pilotの共感を人間のメッセージよりも誠実で行動可能なものとして評価した。
最後に,Pro-Pilotと対話する20人のCSRを対象に,シミュレーション演習を行った。
彼らは、Pro-Pilotがネガティブな思考、最近の思考、そして顧客を人間化することを避けるのに役立ったと報告した。
さらに、デプロイの課題にも言及し、共有エクスペリエンスの非互換性を強調した。
我々は、AIを介する感情労働の将来の設計と社会的意味について議論し、AIアシスタントのフロントオフィスにおける重要な機能として共感を強調する。
関連論文リスト
- APTNESS: Incorporating Appraisal Theory and Emotion Support Strategies for Empathetic Response Generation [71.26755736617478]
共感反応生成は、他人の感情を理解するように設計されている。
検索強化と感情支援戦略統合を組み合わせたフレームワークを開発する。
我々の枠組みは認知的・情緒的共感の両面からLLMの共感能力を高めることができる。
論文 参考訳(メタデータ) (2024-07-23T02:23:37Z) - Rel-A.I.: An Interaction-Centered Approach To Measuring Human-LM Reliance [73.19687314438133]
インタラクションの文脈的特徴が依存に与える影響について検討する。
文脈特性が人間の信頼行動に大きく影響していることが判明した。
これらの結果から,キャリブレーションと言語品質だけでは人間とLMの相互作用のリスクを評価するには不十分であることが示唆された。
論文 参考訳(メタデータ) (2024-07-10T18:00:05Z) - Roleplay-doh: Enabling Domain-Experts to Create LLM-simulated Patients via Eliciting and Adhering to Principles [58.82161879559716]
ドメインエキスパートから定性的なフィードバックを引き出す新しい人間-LLMコラボレーションパイプラインであるRoleplay-dohを開発した。
このパイプラインを適用して、シニアメンタルヘルスサポーターが、シミュレートされた実践パートナのためにカスタマイズされたAI患者を作成できるようにします。
論文 参考訳(メタデータ) (2024-07-01T00:43:02Z) - Should agentic conversational AI change how we think about ethics? Characterising an interactional ethics centred on respect [0.12041807591122715]
本稿では,関係要因と状況要因に着目した倫理の相互作用的アプローチを提案する。
我々の研究は、位置する社会的相互作用のレベルにおいて、ほとんど探索されていないリスクのセットを予想している。
論文 参考訳(メタデータ) (2024-01-17T09:44:03Z) - Large Language Models Understand and Can be Enhanced by Emotional
Stimuli [53.53886609012119]
我々は、感情的な刺激を理解するために、大規模言語モデルの能力を探究する第一歩を踏み出す。
実験の結果,LLMは感情的知能を把握でき,その性能は感情的刺激によって改善できることがわかった。
EmotionPromptが生成タスクの性能を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-07-14T00:57:12Z) - Chatbots for Mental Health Support: Exploring the Impact of Emohaa on
Reducing Mental Distress in China [50.12173157902495]
調査には134人の参加者が参加し、Emohaa(CBT)、Emohaa(Full)、コントロールの3つのグループに分けられた。
Emohaaは、CBTベースのエクササイズとガイド付き会話を通じて認知的支援を提供する会話エージェントである。
また、ユーザーが望む感情的な問題を経験できるようにすることで、ユーザーを感情的に支援する。
論文 参考訳(メタデータ) (2022-09-21T08:23:40Z) - Human-AI Collaboration Enables More Empathic Conversations in Text-based
Peer-to-Peer Mental Health Support [10.743204843534512]
AI-in-the-loopエージェントであるHayleyを開発した。このエージェントは、サポートを提供する参加者(ピアサポーター)が助けを求める参加者(フォスター支援者)に対して共感的に反応するのを助けるために、ジャスト・イン・タイムフィードバックを提供する。
我々の人間とAIのコラボレーションアプローチは、ピア間での会話の共感を19.60%増加させます。
支援の難しさを自認するピアサポーターのサブサンプルでは,38.88%の共感が増大している。
論文 参考訳(メタデータ) (2022-03-28T23:37:08Z) - Modeling User Empathy Elicited by a Robot Storyteller [2.309914459672557]
本稿では,ロボットエージェントとのインタラクション中に引き起こされたユーザ共感をモデル化するための最初のアプローチを提案する。
我々は8つの古典的機械学習モデルと2つのディープラーニングモデルを用いて共感を検出する実験を行った。
XGBoostをベースとした我々の最高性能のアプローチは、ビデオの共感を検出すると精度が69%、AUCが72%に達しました。
論文 参考訳(メタデータ) (2021-07-29T21:56:19Z) - Let's be friends! A rapport-building 3D embodied conversational agent
for the Human Support Robot [0.0]
会話中の非言語行動の微妙なミラーリング(模倣または平行共感とも呼ばれる)はラプポート構築に不可欠である。
本研究の課題は,対話者の表情と頭部の動きを反映できるECAとヒューマンサービスロボットを組み合わせることで,ユーザエクスペリエンスが向上するかどうかである。
私たちの貢献は、対話者の顔を追跡し、人間の支援ロボットと統合されたリアルタイムで顔の表情や頭の動きを反映することができる表現的ECAの複雑な統合です。
論文 参考訳(メタデータ) (2021-03-08T01:02:41Z) - Towards Persona-Based Empathetic Conversational Models [58.65492299237112]
共感的会話モデルは、多くのドメインにおけるユーザの満足度とタスク結果を改善することが示されている。
心理学において、ペルソナは人格と高い相関関係があることが示され、それによって共感に影響を及ぼす。
本研究では,ペルソナに基づく共感的会話に対する新たな課題を提案し,ペルソナが共感的反応に与える影響に関する最初の経験的研究を示す。
論文 参考訳(メタデータ) (2020-04-26T08:51:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。