論文の概要: PERM: Psychology-grounded Empathetic Reward Modeling for Large Language Models
- arxiv url: http://arxiv.org/abs/2601.10532v2
- Date: Fri, 16 Jan 2026 15:28:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-19 14:30:44.069523
- Title: PERM: Psychology-grounded Empathetic Reward Modeling for Large Language Models
- Title(参考訳): PERM:大規模言語モデルのための心理学に基づく共感的リワードモデリング
- Authors: Chengbing Wang, Wuqiang Zheng, Yang Zhang, Fengbin Zhu, Junyi Cheng, Yi Xie, Wenjie Wang, Fuli Feng,
- Abstract要約: 大きな言語モデル(LLM)は、人間中心のアプリケーションにますますデプロイされるが、静的な感情的サポートの提供に失敗することが多い。
本稿では,この限界に対処するために,心理学に基づく共感的リワードモデリング(PERM)を提案する。
- 参考スコア(独自算出の注目度): 45.377102925731826
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) are increasingly deployed in human-centric applications, yet they often fail to provide substantive emotional support. While Reinforcement Learning (RL) has been utilized to enhance empathy of LLMs, existing reward models typically evaluate empathy from a single perspective, overlooking the inherently bidirectional interaction nature of empathy between the supporter and seeker as defined by Empathy Cycle theory. To address this limitation, we propose Psychology-grounded Empathetic Reward Modeling (PERM). PERM operationalizes empathy evaluation through a bidirectional decomposition: 1) Supporter perspective, assessing internal resonation and communicative expression; 2) Seeker perspective, evaluating emotional reception. Additionally, it incorporates a bystander perspective to monitor overall interaction quality. Extensive experiments on a widely-used emotional intelligence benchmark and an industrial daily conversation dataset demonstrate that PERM outperforms state-of-the-art baselines by over 10\%. Furthermore, a blinded user study reveals a 70\% preference for our approach, highlighting its efficacy in generating more empathetic responses. Our code, dataset, and models are available at https://github.com/ZhengWwwq/PERM.
- Abstract(参考訳): 大きな言語モデル(LLM)は、人間中心のアプリケーションにますますデプロイされるが、静的な感情的サポートの提供に失敗することが多い。
強化学習(Reinforcement Learning, RL)は、LLMの共感を高めるために利用されてきたが、既存の報酬モデルは通常、一つの視点から共感を評価する。
この制限に対処するため,心理学に基づく共感的リワードモデリング(PERM)を提案する。
PERMは双方向分解による共感評価を運用する。
1)内部共鳴及びコミュニケーション表現を評価する支援者視点
2) 情緒的受容度を評価する。
さらに、全体的なインタラクション品質を監視するために、傍観者視点も組み込まれている。
広く使われている感情インテリジェンスベンチマークと産業用日々の会話データセットに関する大規模な実験は、PERMが最先端のベースラインを10倍以上上回っていることを示している。
さらに、視覚障害者を対象にした研究では、アプローチが70%好まれており、より共感的な反応を生み出す効果が浮かび上がっている。
私たちのコード、データセット、モデルはhttps://github.com/ZhengWwwq/PERM.comで公開されています。
関連論文リスト
- Kardia-R1: Unleashing LLMs to Reason toward Understanding and Empathy for Emotional Support via Rubric-as-Judge Reinforcement Learning [20.717092979679553]
KardiaBenchは、22,080の会話で178,080のQAペアで構成され、671の現実世界プロファイルにアンロックされた大規模なユーザグラウンドベンチマークである。
Kardia-R1は、解釈可能な、段階的な共感的認知のためのモデルを訓練するフレームワークである。
私たちのデータセットとモデルはhttps://github.com/JhCircle/Kardia-R1.comでリリースされます。
論文 参考訳(メタデータ) (2025-12-01T04:54:03Z) - EmoPerso: Enhancing Personality Detection with Self-Supervised Emotion-Aware Modelling [22.309957211042597]
テキストからの個人性検出は、ユーザーのソーシャルメディア投稿を分析して行うのが一般的である。
本稿では,感情認識モデルによる人格検出を改善する自己教師型フレームワークであるEmoPersoを提案する。
論文 参考訳(メタデータ) (2025-09-02T15:57:26Z) - Heartificial Intelligence: Exploring Empathy in Language Models [8.517406772939292]
小さな言語モデルと大きな言語モデルは、認知的共感タスクにおいて人間よりも一貫して優れていた。
認知的強みにもかかわらず、小・大言語モデルともに、人間に比べて感情的共感が有意に低かった。
論文 参考訳(メタデータ) (2025-07-30T14:09:33Z) - The Pursuit of Empathy: Evaluating Small Language Models for PTSD Dialogue Support [14.137398642966138]
本稿では,PTSD患者に対する共感応答を生成するための小言語モデルの能力について検討する。
Trauma-Informed Dialogue for Empathy (TIDE) は500の多様な臨床現場のPTSDペルソナにまたがる1万の2ターン会話からなる新しいデータセットである。
論文 参考訳(メタデータ) (2025-05-21T03:32:46Z) - Human Cognitive Benchmarks Reveal Foundational Visual Gaps in MLLMs [65.93003087656754]
VisFactorは、よく確立された認知心理学評価から20の視覚中心のサブテストをデジタル化するベンチマークである。
GPT、Gemini、Claude、LLaMA、Qwen、SEEDファミリーから20のフロンティアマルチモーダル言語モデル(MLLM)を評価する。
最高のパフォーマンスモデルは100点中25.19点のスコアしか得られず、精神的な回転、空間的関係推論、図形の識別といったタスクに一貫して失敗する。
論文 参考訳(メタデータ) (2025-02-23T04:21:32Z) - Emotionally Numb or Empathetic? Evaluating How LLMs Feel Using EmotionBench [83.41621219298489]
心理学からの感情評価理論を用いて,Large Language Models (LLMs) の人為的能力を評価する。
我々は、研究の中心となる8つの感情を引き出すのに有効な400以上の状況を含むデータセットを収集した。
我々は世界中の1200人以上の被験者を対象に人間による評価を行った。
論文 参考訳(メタデータ) (2023-08-07T15:18:30Z) - A Hierarchical Regression Chain Framework for Affective Vocal Burst
Recognition [72.36055502078193]
本稿では,声帯からの感情認識のための連鎖回帰モデルに基づく階層的枠組みを提案する。
データスパシティの課題に対処するため、レイヤワイドおよび時間アグリゲーションモジュールを備えた自己教師付き学習(SSL)表現も使用しています。
提案されたシステムは、ACII Affective Vocal Burst (A-VB) Challenge 2022に参加し、「TWO」および「CULTURE」タスクで第1位となった。
論文 参考訳(メタデータ) (2023-03-14T16:08:45Z) - Towards Persona-Based Empathetic Conversational Models [58.65492299237112]
共感的会話モデルは、多くのドメインにおけるユーザの満足度とタスク結果を改善することが示されている。
心理学において、ペルソナは人格と高い相関関係があることが示され、それによって共感に影響を及ぼす。
本研究では,ペルソナに基づく共感的会話に対する新たな課題を提案し,ペルソナが共感的反応に与える影響に関する最初の経験的研究を示す。
論文 参考訳(メタデータ) (2020-04-26T08:51:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。