論文の概要: Practicing with Language Models Cultivates Human Empathic Communication
- arxiv url: http://arxiv.org/abs/2603.15245v1
- Date: Mon, 16 Mar 2026 13:16:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 18:28:58.307258
- Title: Practicing with Language Models Cultivates Human Empathic Communication
- Title(参考訳): 言語モデルによる実践は人間の共感コミュニケーションを育む
- Authors: Aakriti Kumar, Nalin Poungpeth, Diyi Yang, Bruce Lambert, Matthew Groh,
- Abstract要約: 共感は人間とのつながりの中心であるが、人々はそれを効果的に表現するのに苦労する。
盲目評価では、大きな言語モデル(LLM)は、人間が書いたものよりも共感的であるとしばしば判断される応答を生成する。
我々は,共感的コミュニケーションスキルのギャップを探索し,対処するための,実験的な会話プラットフォームを構築した。
- 参考スコア(独自算出の注目度): 42.29610813599475
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Empathy is central to human connection, yet people often struggle to express it effectively. In blinded evaluations, large language models (LLMs) generate responses that are often judged more empathic than human-written ones. Yet when a response is attributed to AI, recipients feel less heard and validated than when comparable responses are attributed to a human. To probe and address this gap in empathic communication skill, we built Lend an Ear, an experimental conversation platform in which participants are asked to offer empathic support to an LLM role-playing personal and workplace troubles. From 33,938 messages spanning 2,904 text-based conversations between 968 participants and their LLM conversational partners, we derive a data-driven taxonomy of idiomatic empathic expressions in naturalistic dialogue. Based on a pre-registered randomized experiment, we present evidence that a brief LLM coaching intervention offering personalized feedback on how to effectively communicate empathy significantly boosts alignment of participants' communication patterns with normative empathic communication patterns relative to both a control group and a group that received video-based but non-personalized feedback. Moreover, we find evidence for a silent empathy effect that people feel empathy but systematically fail to express it. Nonetheless, participants reliably identify responses aligned with normative empathic communication criteria as more expressive of empathy. Together, these results advance the scientific understanding of how empathy is expressed and valued and demonstrate a scalable, AI-based intervention for scaffolding and cultivating it.
- Abstract(参考訳): 共感は人間とのつながりの中心であるが、人々はそれを効果的に表現するのに苦労する。
盲目評価では、大きな言語モデル(LLM)は、人間が書いたものよりも共感的であるとしばしば判断される応答を生成する。
しかし、応答がAIによるものである場合、受信者は人間による応答よりも、聴力や妥当性が低いと感じます。
このような共感的コミュニケーションスキルのギャップを調査し,対処するために,Lend an Earという,LLMロールプレイングの個人的・職場的問題に対する共感的支援を参加者に依頼する実験的な会話プラットフォームを構築した。
968人の参加者とそのLLM会話相手間の2,904件のテキストベースの会話にまたがる33,938件のメッセージから、自然主義対話における慣用的共感表現のデータ駆動分類を導出した。
事前登録したランダム化実験に基づき、共感を効果的に伝達する方法に関するパーソナライズされたフィードバックを提供する短いLLMコーチング介入が、制御グループと、ビデオベースで非個人化されたフィードバックを受けたグループの両方に対して、規範的な共感的コミュニケーションパターンによる参加者のコミュニケーションパターンのアライメントを著しく促進することを示す。
さらに、共感を感じるが、体系的に表現できない無声共感効果の証拠を見出した。
それにもかかわらず、参加者は、規範的共感的コミュニケーション基準に沿った応答を、共感をより表現的なものとして確実に識別する。
これらの結果は、共感の表現と価値に関する科学的理解を前進させ、足場の構築と育成のためのスケーラブルでAIベースの介入を実証する。
関連論文リスト
- Reflecting Twice before Speaking with Empathy: Self-Reflective Alternating Inference for Empathy-Aware End-to-End Spoken Dialogue [53.95386201009769]
音声対話における共感的品質を評価するための記述型自然言語ベース評価モデルであるEmpathyEvalを紹介する。
本稿では,共感的自己反射的交替推論機構を通じて共感的対話を強化する,エンドツーエンドの音声言語モデルであるReEmpathyを提案する。
論文 参考訳(メタデータ) (2026-01-26T09:04:50Z) - From Measurement to Expertise: Empathetic Expert Adapters for Context-Based Empathy in Conversational AI Agents [9.297250791971837]
文脈依存型共感型大言語モデル(LLM)の開発と評価のための新しいフレームワークを提案する。
8つのタスクにまたがる672個のマルチターン会話からなる実世界の会話データセットを解析する。
我々は、認識されたタスクに基づいて、様々な共感レベルを専門とする文脈特化共感のための共感専門家アダプタを訓練する。
論文 参考訳(メタデータ) (2025-11-05T03:07:27Z) - EchoMind: An Interrelated Multi-level Benchmark for Evaluating Empathetic Speech Language Models [47.41816926003011]
音声言語モデル(SLM)は、音声言語理解において大きな進歩を遂げている。
SLMが非語彙的声道を完全に知覚できるかどうかは不明であるが、感情的・文脈的要因の双方に合致する共感に反応する。
共感的対話の認知過程をシミュレートする最初の相互関連型マルチレベルベンチマークであるEchoMindを提案する。
論文 参考訳(メタデータ) (2025-10-26T17:15:56Z) - Multi-dimensional Evaluation of Empathetic Dialog Responses [4.580983642743026]
話者の視点から表現された意図と聴取者の視点から認識された共感の両方を測定するための多次元共感評価フレームワークを提案する。
両次元が相互接続されているのに対して,共感は対話満足度と高い相関関係にあることがわかった。
論文 参考訳(メタデータ) (2024-02-18T00:32:33Z) - Exemplars-guided Empathetic Response Generation Controlled by the
Elements of Human Communication [88.52901763928045]
そこで本稿では, インターロケータへの共感を伝達する, 造形モデルによる細かな構造的特性の解明に先立って, 模範的手法を提案する。
これらの手法は, 自動評価指標と人的評価指標の両方の観点から, 共感的応答品質の大幅な改善をもたらすことを実証的に示す。
論文 参考訳(メタデータ) (2021-06-22T14:02:33Z) - Towards Persona-Based Empathetic Conversational Models [58.65492299237112]
共感的会話モデルは、多くのドメインにおけるユーザの満足度とタスク結果を改善することが示されている。
心理学において、ペルソナは人格と高い相関関係があることが示され、それによって共感に影響を及ぼす。
本研究では,ペルソナに基づく共感的会話に対する新たな課題を提案し,ペルソナが共感的反応に与える影響に関する最初の経験的研究を示す。
論文 参考訳(メタデータ) (2020-04-26T08:51:01Z) - You Impress Me: Dialogue Generation via Mutual Persona Perception [62.89449096369027]
認知科学の研究は、理解が高品質なチャット会話に不可欠なシグナルであることを示唆している。
そこで我々は,P2 Botを提案する。このP2 Botは,理解を明示的にモデル化することを目的とした送信機受信者ベースのフレームワークである。
論文 参考訳(メタデータ) (2020-04-11T12:51:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。