論文の概要: From Measurement to Expertise: Empathetic Expert Adapters for Context-Based Empathy in Conversational AI Agents
- arxiv url: http://arxiv.org/abs/2511.03143v1
- Date: Wed, 05 Nov 2025 03:07:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-06 18:19:32.307731
- Title: From Measurement to Expertise: Empathetic Expert Adapters for Context-Based Empathy in Conversational AI Agents
- Title(参考訳): 測定から専門家へ:会話型AIエージェントにおける文脈に基づく共感のための共感的エキスパートアダプタ
- Authors: Erfan Shayegani, Jina Suh, Andy Wilson, Nagu Rangan, Javier Hernandez,
- Abstract要約: 文脈依存型共感型大言語モデル(LLM)の開発と評価のための新しいフレームワークを提案する。
8つのタスクにまたがる672個のマルチターン会話からなる実世界の会話データセットを解析する。
我々は、認識されたタスクに基づいて、様々な共感レベルを専門とする文脈特化共感のための共感専門家アダプタを訓練する。
- 参考スコア(独自算出の注目度): 9.297250791971837
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Empathy is a critical factor in fostering positive user experiences in conversational AI. While models can display empathy, it is often generic rather than tailored to specific tasks and contexts. In this work, we introduce a novel framework for developing and evaluating context-specific empathetic large language models (LLMs). We first analyze a real-world conversational dataset consisting of 672 multi-turn conversations across 8 tasks, revealing significant differences in terms of expected and experienced empathy before and after the conversations, respectively. To help minimize this gap, we develop a synthetic multi-turn conversational generation pipeline and steer responses toward our defined empathy patterns based on the context that more closely matches users' expectations. We then train empathetic expert adapters for context-specific empathy that specialize in varying empathy levels based on the recognized task. Our empirical results demonstrate a significant gap reduction of 72.66% between perceived and desired empathy with scores increasing by an average factor of 2.43 as measured by our metrics and reward models. Additionally, our trained empathetic expert adapters demonstrate superior effectiveness in preserving empathy patterns throughout conversation turns, outperforming system prompts, which tend to dramatically diminish in impact as conversations lengthen.
- Abstract(参考訳): 共感は会話型AIにおけるポジティブなユーザー体験を促進する上で重要な要素である。
モデルは共感を示すことができるが、特定のタスクやコンテキストに合わせて調整されるのではなく、しばしば汎用的である。
本研究では,文脈依存型共感型大規模言語モデル(LLM)の開発と評価を行う新しいフレームワークを提案する。
まず、8つのタスクにまたがる672のマルチターン会話からなる実世界の会話データセットを分析し、会話前後の期待と経験の共感の相違を明らかにした。
このギャップを最小限に抑えるために,我々は,ユーザの期待とより密接に一致したコンテキストに基づいて,定義した共感パターンに対して,合成マルチターン会話生成パイプラインを開発し,応答を操る。
次に、認識されたタスクに基づいて、様々な共感レベルを専門とする文脈特化共感のための共感専門家アダプタを訓練する。
実験の結果,認識と希望の共感の間に72.66%のギャップが有意に減少し,評価値と報酬モデルによって測定された平均係数は2.43に増加した。
さらに, 訓練された共感的エキスパートアダプタは, 会話中の共感パターンの保存に優れた効果を示し, システムプロンプトが優れており, 会話の長さが長くなるにつれて影響が劇的に減少する傾向にある。
関連論文リスト
- SENSE-7: Taxonomy and Dataset for Measuring User Perceptions of Empathy in Sustained Human-AI Conversations [13.232694774856931]
観察可能な共感行動を強調する人間中心の分類法を提案する。
我々は,情報労働者とLarge Language Models(LLMs)による実世界の会話のデータセットであるSense-7を紹介する。
109人の参加者による695の会話の分析から,共感の判断は高度に個人化され,文脈に敏感で,混乱に弱いことが判明した。
論文 参考訳(メタデータ) (2025-09-19T21:32:24Z) - Sentient Agent as a Judge: Evaluating Higher-Order Social Cognition in Large Language Models [75.85319609088354]
SAGE(Sentient Agent as a Judge)は、大規模言語モデルの評価フレームワークである。
SAGEは人間のような感情の変化や内的思考をシミュレートするSentient Agentをインスタンス化する。
SAGEは、真に共感的で社会的に適応的な言語エージェントへの進捗を追跡するための、原則付き、スケーラブルで解釈可能なツールを提供する。
論文 参考訳(メタデータ) (2025-05-01T19:06:10Z) - Multi-dimensional Evaluation of Empathetic Dialog Responses [4.580983642743026]
話者の視点から表現された意図と聴取者の視点から認識された共感の両方を測定するための多次元共感評価フレームワークを提案する。
両次元が相互接続されているのに対して,共感は対話満足度と高い相関関係にあることがわかった。
論文 参考訳(メタデータ) (2024-02-18T00:32:33Z) - EmpBot: A T5-based Empathetic Chatbot focusing on Sentiments [75.11753644302385]
共感的会話エージェントは、議論されていることを理解しているだけでなく、会話相手の暗黙の感情も認識すべきである。
変圧器事前学習言語モデル(T5)に基づく手法を提案する。
本研究では,自動計測と人的評価の両方を用いて,情緒的ダイアログデータセットを用いたモデルの評価を行った。
論文 参考訳(メタデータ) (2021-10-30T19:04:48Z) - Exemplars-guided Empathetic Response Generation Controlled by the
Elements of Human Communication [88.52901763928045]
そこで本稿では, インターロケータへの共感を伝達する, 造形モデルによる細かな構造的特性の解明に先立って, 模範的手法を提案する。
これらの手法は, 自動評価指標と人的評価指標の両方の観点から, 共感的応答品質の大幅な改善をもたらすことを実証的に示す。
論文 参考訳(メタデータ) (2021-06-22T14:02:33Z) - Towards Persona-Based Empathetic Conversational Models [58.65492299237112]
共感的会話モデルは、多くのドメインにおけるユーザの満足度とタスク結果を改善することが示されている。
心理学において、ペルソナは人格と高い相関関係があることが示され、それによって共感に影響を及ぼす。
本研究では,ペルソナに基づく共感的会話に対する新たな課題を提案し,ペルソナが共感的反応に与える影響に関する最初の経験的研究を示す。
論文 参考訳(メタデータ) (2020-04-26T08:51:01Z) - You Impress Me: Dialogue Generation via Mutual Persona Perception [62.89449096369027]
認知科学の研究は、理解が高品質なチャット会話に不可欠なシグナルであることを示唆している。
そこで我々は,P2 Botを提案する。このP2 Botは,理解を明示的にモデル化することを目的とした送信機受信者ベースのフレームワークである。
論文 参考訳(メタデータ) (2020-04-11T12:51:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。