論文の概要: From Emotion Classification to Emotional Reasoning: Enhancing Emotional Intelligence in Large Language Models
- arxiv url: http://arxiv.org/abs/2601.01407v1
- Date: Sun, 04 Jan 2026 07:08:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:22.330316
- Title: From Emotion Classification to Emotional Reasoning: Enhancing Emotional Intelligence in Large Language Models
- Title(参考訳): 感情分類から感情推論へ:大規模言語モデルにおける感情知性の向上
- Authors: Arjhun Sreedar, Rohan Pillay, Laukik Patade,
- Abstract要約: 本研究は、より小さなオープンな大言語モデル(LLM)の感情的推論能力を、合成的感情的連鎖データが改善するかどうかを考察する。
治療スタイルの会話を生成するマルチエージェント生成パイプラインを設計し,それをMCQ(Structured emotion Multiple-choice Question)に変換する。
このデータセット上で様々な7Bモデルを微調整すると、感情的理解と感情的認識が大幅に向上することが提案される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work investigates whether synthetic emotional chain-of-thought data can improve the emotional reasoning abilities of smaller open large language models (LLMs). We design a multi-agent generation pipeline that produces therapy-style conversations and converts them into structured emotion multiple-choice questions (MCQs) with explanations. We propose that fine-tuning a variety of 7B models on this dataset should yield substantial gains in emotional understanding and emotional awareness on EmoBench-style evaluations, suggesting that emotional reasoning can be induced without architectural changes. Our results demonstrate that fine-tuned Mistral 7B achieves EU improvements from 10.5 to 20.5 and EA improvements from 40.5 to 60.0, validating the effectiveness of synthetic emotional reasoning data for enhancing model capabilities in nuanced emotional tasks.
- Abstract(参考訳): 本研究では、より小さなオープンな大言語モデル(LLM)の感情的推論能力を改善することができるかを検討する。
治療スタイルの会話を生成するマルチエージェント生成パイプラインを設計し,それをMCQ(Structured emotion Multiple-choice Question)に変換する。
このデータセット上で様々な7Bモデルを微調整すると、EmoBenchスタイルの評価に対する感情的理解と感情的意識が大幅に向上し、アーキテクチャの変更なしに感情的推論を誘発できる可能性が示唆された。
その結果, 微調整ミストラル7BはEUの10.5から20.5, EAの40.5から60.0の改善を達成し, 感情的タスクにおけるモデル機能向上のための合成感情推論データの有効性を検証した。
関連論文リスト
- EmoLLM: Multimodal Emotional Understanding Meets Large Language Models [61.179731667080326]
マルチモーダル・大規模言語モデル(MLLM)は、目的とするマルチモーダル認識タスクにおいて顕著な性能を達成している。
しかし、主観的、感情的にニュアンスのあるマルチモーダルコンテンツを解釈する能力はほとんど解明されていない。
EmoLLMは、マルチモーダルな感情理解のための新しいモデルであり、2つのコア技術が組み込まれている。
論文 参考訳(メタデータ) (2024-06-24T08:33:02Z) - ECR-Chain: Advancing Generative Language Models to Better Emotion-Cause Reasoners through Reasoning Chains [61.50113532215864]
CEE(Causal Emotion Entailment)は、ターゲット発話で表現される感情を刺激する会話における因果発話を特定することを目的としている。
CEEにおける現在の研究は、主に会話のセマンティックな相互作用と感情的な相互作用をモデル化することに焦点を当てている。
本研究では,会話中の感情表現から刺激を推測するために,ステップバイステップの推論手法である感情・因果関係(ECR-Chain)を導入する。
論文 参考訳(メタデータ) (2024-05-17T15:45:08Z) - Enhancing Emotional Generation Capability of Large Language Models via Emotional Chain-of-Thought [50.13429055093534]
大規模言語モデル(LLM)は様々な感情認識タスクにおいて顕著な性能を示した。
本研究では,感情生成タスクにおけるLLMの性能を高めるための感情連鎖(ECoT)を提案する。
論文 参考訳(メタデータ) (2024-01-12T16:42:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。