論文の概要: EmoLLM: Appraisal-Grounded Cognitive-Emotional Co-Reasoning in Large Language Models
- arxiv url: http://arxiv.org/abs/2603.16553v1
- Date: Tue, 17 Mar 2026 14:17:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:07.32238
- Title: EmoLLM: Appraisal-Grounded Cognitive-Emotional Co-Reasoning in Large Language Models
- Title(参考訳): EmoLLM:大規模言語モデルにおける認知感情共振の評価
- Authors: Yifei Zhang, Mingyang Li, Henry Gao, Liang Zhao,
- Abstract要約: EmoLLM は IQ/EQ 共同推論のための評価地上フレームワークである。
強化学習によるマルチターンロールプレイ環境において,EmoLLMを訓練する。
EmoLLMは、強いベースラインよりも感情状態の結果と応答品質を改善する。
- 参考スコア(独自算出の注目度): 15.744777556347708
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) demonstrate strong cognitive intelligence (IQ), yet many real-world interactions also require emotional intelligence (EQ) to produce responses that are both factually reliable and emotionally appropriate. In settings such as emotional support, technical assistance, and consultation, effective dialogue depends on how situations are appraised with respect to the user's needs, goals, and coping capacity. Inspired by appraisal theory, we propose EmoLLM, an appraisal-grounded framework for IQ/EQ co-reasoning in dialogue. EmoLLM uses an explicit Appraisal Reasoning Graph (ARG) to structure intermediate reasoning over contextual facts, inferred user needs, appraisal dimensions, emotional states, and response strategies before generating a reply. We train EmoLLM in a multi-turn role-play environment with reinforcement learning, where reverse-perspective reasoning provides reward signals based on predicted user-side consequences of responses. Across diverse dialogue settings, EmoLLM improves emotional state outcomes and response quality over strong baselines while preserving strong factual reliability.
- Abstract(参考訳): 大規模言語モデル(LLM)は強力な認知知能(IQ)を示すが、現実の相互作用の多くは、事実的に信頼性があり、感情的に適切な応答を生成するために感情的知能(EQ)も必要である。
感情的支援、技術援助、相談などの設定において、効果的な対話は、ユーザの要求、目標、対処能力に関してどのように評価されるかに依存する。
評価理論に着想を得たEmoLLMを提案する。
EmoLLMは明示的な評価推論グラフ(ARG)を使用して、応答を生成する前に、文脈的事実、推測されたユーザニーズ、評価次元、感情状態、反応戦略に関する中間的推論を構造化する。
我々は,マルチターンロールプレイ環境におけるEmoLLMを強化学習により訓練し,リバース・パースペクティブ推論は応答の予測されたユーザ側の結果に基づいて報酬信号を提供する。
多様な対話設定を通じて、EmoLLMは、強い事実の信頼性を維持しながら、強いベースラインよりも感情状態の結果と応答品質を改善します。
関連論文リスト
- EMO-R3: Reflective Reinforcement Learning for Emotional Reasoning in Multimodal Large Language Models [62.3977734456669]
マルチモーダル大規模言語モデル(MLLM)の感情的推論能力を高めるためのフレームワークとして,情緒的推論のための反射強化学習(EMO-R3)を提案する。
構造化された感情的思考を導入し、構造化された解釈可能な方法で段階的に感情的推論を行い、そのモデルが視覚的テキストの一貫性と感情的コヒーレンスに基づいてその推論を再評価できる反射的感情的回帰を設計する。
EMO-R3はMLLMの解釈可能性と感情的インテリジェンスの両方を大幅に改善し、複数の視覚的感情理解ベンチマークにおいて優れた性能を達成する。
論文 参考訳(メタデータ) (2026-02-27T08:42:52Z) - Reflecting Twice before Speaking with Empathy: Self-Reflective Alternating Inference for Empathy-Aware End-to-End Spoken Dialogue [53.95386201009769]
音声対話における共感的品質を評価するための記述型自然言語ベース評価モデルであるEmpathyEvalを紹介する。
本稿では,共感的自己反射的交替推論機構を通じて共感的対話を強化する,エンドツーエンドの音声言語モデルであるReEmpathyを提案する。
論文 参考訳(メタデータ) (2026-01-26T09:04:50Z) - A Unified Spoken Language Model with Injected Emotional-Attribution Thinking for Human-like Interaction [50.05919688888947]
本稿では,感情的インテリジェンスのための統一言語モデルを提案する。
IEATは、ユーザーの感情状態とその根本原因をモデルの内部推論プロセスに組み込んでおり、明示的な監督として扱われるのではなく、感情を意識した推論を内部化することができる。
HumDial(Human-like Spoken Dialogue Systems Challenge)Emotional Intelligenceベンチマークの実験は、提案手法が感情軌道モデリング、感情的推論、共感的応答生成にまたがるトップランクのパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2026-01-08T14:07:30Z) - Detecting Emotional Dynamic Trajectories: An Evaluation Framework for Emotional Support in Language Models [6.810484095299127]
感情支援は人間とAIの相互作用における中核的な能力であり、心理学的カウンセリング、ロールプレイ、コンパニオンシップなどの応用がある。
大規模言語モデル(LLM)の既存の評価は、しばしば短く静的な対話に依存し、感情的サポートの動的で長期的な性質を捉えない。
本フレームワークは,328の情緒的文脈と1,152の外乱イベントからなる大規模ベンチマークを構築し,進化する対話シナリオ下での現実的な情緒的変化をシミュレートする。
論文 参考訳(メタデータ) (2025-11-12T05:47:28Z) - RECAP: Transparent Inference-Time Emotion Alignment for Medical Dialogue Systems [5.725572628136799]
医療における大きな言語モデルは、しばしば批判的な感情的な手がかりを見逃し、医療的に健全だが感情的に平坦なアドバイスを提供する。
本稿では、再学習なしに構造化された感情的推論を追加する推論時フレームワークRECAPを提案する。
論文 参考訳(メタデータ) (2025-09-12T23:30:45Z) - RLVER: Reinforcement Learning with Verifiable Emotion Rewards for Empathetic Agents [67.46032287312339]
大規模言語モデル(LLM)は論理的およびアルゴリズム的推論において優れているが、彼らの感情的知性(EQ)は認知能力よりもはるかに遅れている。
シミュレーションユーザによる検証可能な感情報酬を活用する,最初のエンドツーエンド強化学習フレームワークであるRLVERを紹介する。
以上の結果から,RLVERは感情的知的で幅広い言語エージェントへの実践的な経路であることが示唆された。
論文 参考訳(メタデータ) (2025-07-03T18:33:18Z) - From Rational Answers to Emotional Resonance: The Role of Controllable Emotion Generation in Language Models [16.350658746140788]
大規模言語モデル(LLM)は、一貫性があり、制御可能で、文脈的に適切な方法で感情を表現するのに苦労する。
感情ベクトル(EV)に基づく制御可能な感情生成フレームワークを提案する。
本手法は、追加のトレーニングやアーキテクチャの変更なしに、感情のトーンを微調整し、連続的に調整することができる。
論文 参考訳(メタデータ) (2025-02-06T13:38:57Z) - Cause-Aware Empathetic Response Generation via Chain-of-Thought Fine-Tuning [12.766893968788263]
共感反応生成は、対話の文脈を理解し、表現された感情に反応する能力を持つエージェントを与える。
先行研究は、主に話者の感情的ラベルを活用することに重点を置いているが、感情の重要性が原因の推論を無視している。
そこで我々は,感情と原因をうまく設計したChain-of-Thoughtプロンプトを通じて統合した原因認識型共感生成手法を提案する。
論文 参考訳(メタデータ) (2024-08-21T13:11:03Z) - Empathy Through Multimodality in Conversational Interfaces [1.360649555639909]
会話型健康エージェント(CHA)は、感情的なインテリジェンスを組み込むためにテキスト分析を超越するニュアンスなサポートを提供することで、医療を再定義している。
本稿では、豊かなマルチモーダル対話のためのLCMベースのCHAについて紹介する。
マルチモーダルな手がかりを解析することにより、ユーザの感情状態に順応的に解釈し、応答し、文脈的に認識され、共感的に反響する音声応答を提供する。
論文 参考訳(メタデータ) (2024-05-08T02:48:29Z) - Enhancing Emotional Generation Capability of Large Language Models via Emotional Chain-of-Thought [50.13429055093534]
大規模言語モデル(LLM)は様々な感情認識タスクにおいて顕著な性能を示した。
本研究では,感情生成タスクにおけるLLMの性能を高めるための感情連鎖(ECoT)を提案する。
論文 参考訳(メタデータ) (2024-01-12T16:42:10Z) - Emotion-aware Chat Machine: Automatic Emotional Response Generation for
Human-like Emotional Interaction [55.47134146639492]
この記事では、投稿中のセマンティクスと感情を同時にエンコードできる、未定義のエンドツーエンドニューラルネットワークを提案する。
実世界のデータを用いた実験により,提案手法は,コンテンツコヒーレンスと感情の適切性の両方の観点から,最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-06T06:26:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。