論文の概要: Empathy-R1: A Chain-of-Empathy and Reinforcement Learning Framework for Long-Form Mental Health Support
- arxiv url: http://arxiv.org/abs/2509.14851v1
- Date: Thu, 18 Sep 2025 11:16:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-19 17:26:53.183053
- Title: Empathy-R1: A Chain-of-Empathy and Reinforcement Learning Framework for Long-Form Mental Health Support
- Title(参考訳): 共感-R1:長期メンタルヘルス支援のための共感・強化学習フレームワーク
- Authors: Xianrong Yao, Dong She, Chenxu Zhang, Yimeng Zhang, Yueru Sun, Noman Ahmed, Yang Gao, Zhanpeng Jin,
- Abstract要約: 強化学習(Reinforcement Learning, RL)とCoE(Chain-of-Empathy)推論プロセスを統合する新しいフレームワークであるEmpathy-R1を紹介する。
認知行動療法にインスパイアされた私たちのCoEパラダイムは、ヘルプ・シーカーの感情、原因、意図を逐次推論するためにモデルをガイドします。
我々のフレームワークは、新しい大規模な中国のデータセット、共感-QA、および2段階のトレーニングプロセスによって強化されています。
- 参考スコア(独自算出の注目度): 17.95060134327437
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Empathy is critical for effective mental health support, especially when addressing Long Counseling Texts (LCTs). However, existing Large Language Models (LLMs) often generate replies that are semantically fluent but lack the structured reasoning necessary for genuine psychological support, particularly in a Chinese context. To bridge this gap, we introduce Empathy-R1, a novel framework that integrates a Chain-of-Empathy (CoE) reasoning process with Reinforcement Learning (RL) to enhance response quality for LCTs. Inspired by cognitive-behavioral therapy, our CoE paradigm guides the model to sequentially reason about a help-seeker's emotions, causes, and intentions, making its thinking process both transparent and interpretable. Our framework is empowered by a new large-scale Chinese dataset, Empathy-QA, and a two-stage training process. First, Supervised Fine-Tuning instills the CoE's reasoning structure. Subsequently, RL, guided by a dedicated reward model, refines the therapeutic relevance and contextual appropriateness of the final responses. Experiments show that Empathy-R1 achieves strong performance on key automatic metrics. More importantly, human evaluations confirm its superiority, showing a clear preference over strong baselines and achieving a Win@1 rate of 44.30% on our new benchmark. By enabling interpretable and contextually nuanced responses, Empathy-R1 represents a significant advancement in developing responsible and genuinely beneficial AI for mental health support.
- Abstract(参考訳): 共感は、特にLong Counseling Texts (LCTs) に対処する際に、効果的なメンタルヘルス支援に重要である。
しかしながら、既存のLarge Language Models (LLMs) は、意味論的に流動的であるが、真の心理的サポート、特に中国の文脈において、構造的な推論が欠如している応答を生成することが多い。
このギャップを埋めるために,LCTの応答品質を高めるために,連鎖共感推論(CoE)プロセスと強化学習(RL)を統合した新しいフレームワークであるEmpathy-R1を導入する。
認知行動療法にインスパイアされた私たちのCoEパラダイムは、ヘルプシーカーの感情、原因、意図を逐次的に推論し、その思考過程を透明かつ解釈可能にします。
我々のフレームワークは、新しい大規模な中国のデータセット、共感-QA、および2段階のトレーニングプロセスによって強化されています。
第一に、スーパーバイザード・ファインチューニングはCoEの推論構造を注入する。
その後、専用の報酬モデルによって導かれるRLは、最終反応の治療的関連性と文脈的適切性を改善する。
実験によると、Empathy-R1は重要な自動メトリクスで高いパフォーマンスを達成する。
さらに重要なのは、人間の評価がその優位性を確認し、強いベースラインよりも明確な好みを示し、新しいベンチマークでWin@1レート44.30%を達成したことです。
Empathy-R1は、解釈可能で文脈的にニュアンスされた応答を可能にすることで、精神的な健康支援のための責任と真に有益なAIを開発する上で大きな進歩を示す。
関連論文リスト
- Psyche-R1: Towards Reliable Psychological LLMs through Unified Empathy, Expertise, and Reasoning [21.062242651416675]
我々は,共感,心理学的専門知識,推論を共同で統合した中国初の心理学的大規模言語モデル(LLM)である Psyche-R1 を提案する。
具体的には,75k以上の心理的質問を詳細な論理と組み合わせて生成する包括的データ合成パイプラインを設計する。
実験の結果、いくつかの心理学的ベンチマークでサイクロン-R1の有効性が示された。
論文 参考訳(メタデータ) (2025-08-14T17:18:35Z) - COMPEER: Controllable Empathetic Reinforcement Reasoning for Emotional Support Conversation [47.0476311232988]
本稿では、自然言語推論と構造化された心理的ステップを組み合わせた、制御可能な共感推論を提案する。
我々は、正確なフィードバックを提供する統一されたプロセスアウトカム報酬モデルによる強化学習を採用する。
提案手法は,共感的,人間的支援システムの開発を推し進め,モデルの感情支援能力を大幅に向上させる。
論文 参考訳(メタデータ) (2025-08-13T06:09:32Z) - IntentionESC: An Intention-Centered Framework for Enhancing Emotional Support in Dialogue Systems [74.0855067343594]
感情的支援の会話では、意図の不明確さは、支持者に不適切な戦略を採用させる可能性がある。
Intention-centered Emotional Support Conversation frameworkを提案する。
支援者の意図を定義し、これらの意図を推測するための重要な感情状態の側面を特定し、それらを適切な支援戦略にマッピングする。
論文 参考訳(メタデータ) (2025-06-06T10:14:49Z) - Sentient Agent as a Judge: Evaluating Higher-Order Social Cognition in Large Language Models [75.85319609088354]
SAGE(Sentient Agent as a Judge)は、大規模言語モデルの評価フレームワークである。
SAGEは人間のような感情の変化や内的思考をシミュレートするSentient Agentをインスタンス化する。
SAGEは、真に共感的で社会的に適応的な言語エージェントへの進捗を追跡するための、原則付き、スケーラブルで解釈可能なツールを提供する。
論文 参考訳(メタデータ) (2025-05-01T19:06:10Z) - Empathy Level Alignment via Reinforcement Learning for Empathetic Response Generation [17.210469986755747]
強化学習(EmpRL)を用いた共感応答生成フレームワークを提案する。
本フレームワークは、効果的な共感報酬機能を開発し、強化学習により期待される報酬を最大化することにより共感応答を生成する。
自動評価と人的評価は、提案したEmpRLフレームワークが生成した応答の質を大幅に向上することを示す。
論文 参考訳(メタデータ) (2024-08-06T06:16:00Z) - APTNESS: Incorporating Appraisal Theory and Emotion Support Strategies for Empathetic Response Generation [71.26755736617478]
共感反応生成は、他人の感情を理解するように設計されている。
検索強化と感情支援戦略統合を組み合わせたフレームワークを開発する。
我々の枠組みは認知的・情緒的共感の両面からLLMの共感能力を高めることができる。
論文 参考訳(メタデータ) (2024-07-23T02:23:37Z) - CASE: Aligning Coarse-to-Fine Cognition and Affection for Empathetic
Response Generation [59.8935454665427]
共感的対話モデルは、通常、感情的な側面のみを考慮するか、孤立して認知と愛情を扱う。
共感的対話生成のためのCASEモデルを提案する。
論文 参考訳(メタデータ) (2022-08-18T14:28:38Z) - Exemplars-guided Empathetic Response Generation Controlled by the
Elements of Human Communication [88.52901763928045]
そこで本稿では, インターロケータへの共感を伝達する, 造形モデルによる細かな構造的特性の解明に先立って, 模範的手法を提案する。
これらの手法は, 自動評価指標と人的評価指標の両方の観点から, 共感的応答品質の大幅な改善をもたらすことを実証的に示す。
論文 参考訳(メタデータ) (2021-06-22T14:02:33Z) - A Computational Approach to Understanding Empathy Expressed in
Text-Based Mental Health Support [11.736179504987712]
オンラインメンタルヘルスプラットフォームにおいて共感がどのように表現されるかを理解するための計算手法を提案する。
我々は,テキストベースの会話における共感のコミュニケーションを特徴付けるための,理論的基盤の統一フレームワークを開発する。
論文 参考訳(メタデータ) (2020-09-17T17:47:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。