論文の概要: AI on My Shoulder: Supporting Emotional Labor in Front-Office Roles with an LLM-based Empathetic Coworker
- arxiv url: http://arxiv.org/abs/2411.02408v2
- Date: Thu, 27 Feb 2025 16:53:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-28 14:54:44.819814
- Title: AI on My Shoulder: Supporting Emotional Labor in Front-Office Roles with an LLM-based Empathetic Coworker
- Title(参考訳): AI on My Shoulder:LLMベースの共感的同僚によるフロントオフィスの役割における感情労働の支援
- Authors: Vedant Das Swain, Qiuyue "Joy" Zhong, Jash Rajesh Parekh, Yechan Jeon, Roy Zimmermann, Mary Czerwinski, Jina Suh, Varun Mishra, Koustuv Saha, Javier Hernandez,
- Abstract要約: 私たちはCare-PilotというAIアシスタントを設計しました。
比較分析の結果,様々なシビリティ事件において,ケアパイロットが共感に適応し,共感する能力を示した。
シミュレーション演習でCare-Pilotと対話した20人のCSRにインタビューしたところ、ネガティブな思考、最近の思考、そして顧客を人間化するのに役立ちました。
- 参考スコア(独自算出の注目度): 17.940894424179664
- License:
- Abstract: Client-Service Representatives (CSRs) are vital to organizations. Frequent interactions with disgruntled clients, however, disrupt their mental well-being. To help CSRs regulate their emotions while interacting with uncivil clients, we designed Care-Pilot, an LLM-powered assistant, and evaluated its efficacy, perception, and use. Our comparative analyses between 665 human and Care-Pilot-generated support messages highlight Care-Pilot's ability to adapt to and demonstrate empathy in various incivility incidents. Additionally, 143 CSRs assessed Care-Pilot's empathy as more sincere and actionable than human messages. Finally, we interviewed 20 CSRs who interacted with Care-Pilot in a simulation exercise. They reported that Care-Pilot helped them avoid negative thinking, recenter thoughts, and humanize clients; showing potential for bridging gaps in coworker support. Yet, they also noted deployment challenges and emphasized the indispensability of shared experiences. We discuss future designs and societal implications of AI-mediated emotional labor, underscoring empathy as a critical function for AI assistants for worker mental health.
- Abstract(参考訳): クライアントサービス代表(CSR)は組織にとって不可欠です。
しかし、不満を抱いた顧客との頻繁な交流は、彼らの精神的幸福を損なう。
そこで我々は,LLMを利用したアシスタントであるCare-Pilotを設計し,その有効性,知覚,使用性を評価した。
665人の人間とケア・パイロットが生成するサポートメッセージの比較分析では,様々なインシビティインシデントに対して,ケア・パイロットが適応し共感を示す能力を強調した。
さらに、143人のCSRは、ケア・パイロットの共感を人間のメッセージよりも誠実で行動可能なものとして評価した。
最後に、シミュレーション演習でCare-Pilotと対話した20人のCSRにインタビューを行った。
彼らは、Care-Pilotがネガティブな思考、最近の思考、そして顧客を人間化することを避けるのに役立ったと報告した。
さらに、デプロイの課題にも言及し、共有エクスペリエンスの欠如を強調した。
我々は、AIを介する感情労働の将来の設計と社会的含意について論じ、労働者精神保健におけるAIアシスタントにとって重要な機能として共感を強調する。
関連論文リスト
- From Personas to Talks: Revisiting the Impact of Personas on LLM-Synthesized Emotional Support Conversations [19.67703146838264]
大規模言語モデル(LLM)は感情的サポートの会話の世代に革命をもたらした。
本稿では,感情的支援会話の創出におけるペルソナの役割について考察する。
論文 参考訳(メタデータ) (2025-02-17T05:24:30Z) - Interactive Dialogue Agents via Reinforcement Learning on Hindsight Regenerations [58.65755268815283]
多くの実際の対話は対話的であり、つまりエージェントの発話が会話の相手に影響を与えるか、情報を引き出すか、意見を変えるかである。
この事実を利用して、既存の最適データを書き直し、拡張し、オフライン強化学習(RL)を介してトレーニングする。
実際の人間によるユーザ調査の結果、我々のアプローチは既存の最先端の対話エージェントを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-07T21:37:51Z) - Rel-A.I.: An Interaction-Centered Approach To Measuring Human-LM Reliance [73.19687314438133]
インタラクションの文脈的特徴が依存に与える影響について検討する。
文脈特性が人間の信頼行動に大きく影響していることが判明した。
これらの結果から,キャリブレーションと言語品質だけでは人間とLMの相互作用のリスクを評価するには不十分であることが示唆された。
論文 参考訳(メタデータ) (2024-07-10T18:00:05Z) - Roleplay-doh: Enabling Domain-Experts to Create LLM-simulated Patients via Eliciting and Adhering to Principles [58.82161879559716]
ドメインエキスパートから定性的なフィードバックを引き出す新しい人間-LLMコラボレーションパイプラインであるRoleplay-dohを開発した。
このパイプラインを適用して、シニアメンタルヘルスサポーターが、シミュレートされた実践パートナのためにカスタマイズされたAI患者を作成できるようにします。
論文 参考訳(メタデータ) (2024-07-01T00:43:02Z) - Should agentic conversational AI change how we think about ethics? Characterising an interactional ethics centred on respect [0.12041807591122715]
本稿では,関係要因と状況要因に着目した倫理の相互作用的アプローチを提案する。
我々の研究は、位置する社会的相互作用のレベルにおいて、ほとんど探索されていないリスクのセットを予想している。
論文 参考訳(メタデータ) (2024-01-17T09:44:03Z) - Large Language Models Understand and Can be Enhanced by Emotional
Stimuli [53.53886609012119]
我々は、感情的な刺激を理解するために、大規模言語モデルの能力を探究する第一歩を踏み出す。
実験の結果,LLMは感情的知能を把握でき,その性能は感情的刺激によって改善できることがわかった。
EmotionPromptが生成タスクの性能を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-07-14T00:57:12Z) - Chatbots for Mental Health Support: Exploring the Impact of Emohaa on
Reducing Mental Distress in China [50.12173157902495]
調査には134人の参加者が参加し、Emohaa(CBT)、Emohaa(Full)、コントロールの3つのグループに分けられた。
Emohaaは、CBTベースのエクササイズとガイド付き会話を通じて認知的支援を提供する会話エージェントである。
また、ユーザーが望む感情的な問題を経験できるようにすることで、ユーザーを感情的に支援する。
論文 参考訳(メタデータ) (2022-09-21T08:23:40Z) - Human-AI Collaboration Enables More Empathic Conversations in Text-based
Peer-to-Peer Mental Health Support [10.743204843534512]
AI-in-the-loopエージェントであるHayleyを開発した。このエージェントは、サポートを提供する参加者(ピアサポーター)が助けを求める参加者(フォスター支援者)に対して共感的に反応するのを助けるために、ジャスト・イン・タイムフィードバックを提供する。
我々の人間とAIのコラボレーションアプローチは、ピア間での会話の共感を19.60%増加させます。
支援の難しさを自認するピアサポーターのサブサンプルでは,38.88%の共感が増大している。
論文 参考訳(メタデータ) (2022-03-28T23:37:08Z) - Modeling User Empathy Elicited by a Robot Storyteller [2.309914459672557]
本稿では,ロボットエージェントとのインタラクション中に引き起こされたユーザ共感をモデル化するための最初のアプローチを提案する。
我々は8つの古典的機械学習モデルと2つのディープラーニングモデルを用いて共感を検出する実験を行った。
XGBoostをベースとした我々の最高性能のアプローチは、ビデオの共感を検出すると精度が69%、AUCが72%に達しました。
論文 参考訳(メタデータ) (2021-07-29T21:56:19Z) - Towards Persona-Based Empathetic Conversational Models [58.65492299237112]
共感的会話モデルは、多くのドメインにおけるユーザの満足度とタスク結果を改善することが示されている。
心理学において、ペルソナは人格と高い相関関係があることが示され、それによって共感に影響を及ぼす。
本研究では,ペルソナに基づく共感的会話に対する新たな課題を提案し,ペルソナが共感的反応に与える影響に関する最初の経験的研究を示す。
論文 参考訳(メタデータ) (2020-04-26T08:51:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。