論文の概要: The Illusion of Empathy: How AI Chatbots Shape Conversation Perception
- arxiv url: http://arxiv.org/abs/2411.12877v1
- Date: Tue, 19 Nov 2024 21:47:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-21 16:10:10.172864
- Title: The Illusion of Empathy: How AI Chatbots Shape Conversation Perception
- Title(参考訳): 共感のイライラ:AIチャットボットが会話の知覚をどう形作るか
- Authors: Tingting Liu, Salvatore Giorgi, Ankit Aich, Allison Lahnala, Brenda Curtis, Lyle Ungar, João Sedoc,
- Abstract要約: GPTベースのチャットボットは、人間の会話相手よりも共感的でないと認識された。
GPT-4oアノテーションからの共感評価はユーザの評価と一致し、低い共感の知覚を補強する。
人間と人間の会話を訓練した共感モデルでは共感言語に有意な差は認められなかった。
- 参考スコア(独自算出の注目度): 10.061399479158903
- License:
- Abstract: As AI chatbots become more human-like by incorporating empathy, understanding user-centered perceptions of chatbot empathy and its impact on conversation quality remains essential yet under-explored. This study examines how chatbot identity and perceived empathy influence users' overall conversation experience. Analyzing 155 conversations from two datasets, we found that while GPT-based chatbots were rated significantly higher in conversational quality, they were consistently perceived as less empathetic than human conversational partners. Empathy ratings from GPT-4o annotations aligned with users' ratings, reinforcing the perception of lower empathy in chatbots. In contrast, 3 out of 5 empathy models trained on human-human conversations detected no significant differences in empathy language between chatbots and humans. Our findings underscore the critical role of perceived empathy in shaping conversation quality, revealing that achieving high-quality human-AI interactions requires more than simply embedding empathetic language; it necessitates addressing the nuanced ways users interpret and experience empathy in conversations with chatbots.
- Abstract(参考訳): AIチャットボットが共感を取り入れることでより人間らしくなるにつれて、チャットボットの共感と会話品質への影響に対するユーザ中心の認識を理解することは、依然として必要不可欠である。
本研究では,チャットボットのアイデンティティと共感がユーザ全体の会話体験に与える影響について検討した。
2つのデータセットから155の会話を分析し、GPTベースのチャットボットは会話の質において著しく高い評価を受けたが、人間の会話パートナーよりも共感的ではないと一貫して認識されていた。
GPT-4oアノテーションからの共感評価はユーザの評価と一致し、チャットボットにおける共感の低さの認識を補強する。
対照的に、人間と人間の会話を訓練した5つの共感モデルのうち3つは、チャットボットと人間の共感言語に有意な差は認められなかった。
その結果,会話の質形成において共感が重要な役割を担い,高品質な人間とAIのインタラクションを実現するためには,単に共感言語を埋め込むだけでなく,チャットボットとの会話において共感を体験する上で,ユーザが理解し,経験するニュアンスな方法に対処する必要があることが明らかになった。
関連論文リスト
- Exploring ChatGPT's Empathic Abilities [0.138120109831448]
本研究は, GPT-3.5に基づくChatGPTが情緒的反応および情緒的表情を示す程度について検討した。
91.7%の症例では、ChatGPTは感情を正しく識別し、適切な回答を得られる。
会話では、ChatGPTは70.7%のケースで平行感情で反応した。
論文 参考訳(メタデータ) (2023-08-07T12:23:07Z) - Neural Generation Meets Real People: Building a Social, Informative
Open-Domain Dialogue Agent [65.68144111226626]
Chirpy Cardinalは、情報と会話の両方をねらっている。
ユーザーとボットの両方を交互に会話に駆り立てる。
Chirpy Cardinalは、Alexa Prize Socialbot Grand Challengeで9つのボットのうち2位にランクインした。
論文 参考訳(メタデータ) (2022-07-25T09:57:23Z) - A Deep Learning Approach to Integrate Human-Level Understanding in a
Chatbot [0.4632366780742501]
人間とは異なり、チャットボットは一度に複数の顧客にサービスを提供し、24/7で提供され、1秒以内で返信できる。
深層学習を用いて感情分析,感情検出,意図分類,名義認識を行い,人文的理解と知性を備えたチャットボットを開発した。
論文 参考訳(メタデータ) (2021-12-31T22:26:41Z) - EmpBot: A T5-based Empathetic Chatbot focusing on Sentiments [75.11753644302385]
共感的会話エージェントは、議論されていることを理解しているだけでなく、会話相手の暗黙の感情も認識すべきである。
変圧器事前学習言語モデル(T5)に基づく手法を提案する。
本研究では,自動計測と人的評価の両方を用いて,情緒的ダイアログデータセットを用いたモデルの評価を行った。
論文 参考訳(メタデータ) (2021-10-30T19:04:48Z) - CheerBots: Chatbots toward Empathy and Emotionusing Reinforcement
Learning [60.348822346249854]
本研究では,複数の共感型チャットボットがユーザの暗黙の感情を理解し,複数の対話のターンに対して共感的に応答する枠組みを提案する。
チャットボットをCheerBotsと呼びます。CheerBotsは検索ベースまたは生成ベースで、深い強化学習によって微調整されます。
共感的態度で反応するため,CheerBotsの学習支援としてシミュレーションエージェントである概念人間モデルを開発し,今後のユーザの感情状態の変化を考慮し,共感を喚起する。
論文 参考訳(メタデータ) (2021-10-08T07:44:47Z) - Exemplars-guided Empathetic Response Generation Controlled by the
Elements of Human Communication [88.52901763928045]
そこで本稿では, インターロケータへの共感を伝達する, 造形モデルによる細かな構造的特性の解明に先立って, 模範的手法を提案する。
これらの手法は, 自動評価指標と人的評価指標の両方の観点から, 共感的応答品質の大幅な改善をもたらすことを実証的に示す。
論文 参考訳(メタデータ) (2021-06-22T14:02:33Z) - Put Chatbot into Its Interlocutor's Shoes: New Framework to Learn
Chatbot Responding with Intention [55.77218465471519]
本稿では,チャットボットに人間のような意図を持つための革新的なフレームワークを提案する。
我々のフレームワークには、ガイドロボットと人間の役割を担うインターロケータモデルが含まれていた。
本フレームワークを3つの実験的なセットアップを用いて検討し,4つの異なる指標を用いた誘導ロボットの評価を行い,柔軟性と性能の利点を実証した。
論文 参考訳(メタデータ) (2021-03-30T15:24:37Z) - Towards Persona-Based Empathetic Conversational Models [58.65492299237112]
共感的会話モデルは、多くのドメインにおけるユーザの満足度とタスク結果を改善することが示されている。
心理学において、ペルソナは人格と高い相関関係があることが示され、それによって共感に影響を及ぼす。
本研究では,ペルソナに基づく共感的会話に対する新たな課題を提案し,ペルソナが共感的反応に与える影響に関する最初の経験的研究を示す。
論文 参考訳(メタデータ) (2020-04-26T08:51:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。