論文の概要: RE-LLM: Refining Empathetic Speech-LLM Responses by Integrating Emotion Nuance
- arxiv url: http://arxiv.org/abs/2602.10716v1
- Date: Wed, 11 Feb 2026 10:23:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:01.750844
- Title: RE-LLM: Refining Empathetic Speech-LLM Responses by Integrating Emotion Nuance
- Title(参考訳): RE-LLM:感情ニュアンスの統合による共感的音声-LLM応答の精製
- Authors: Jing-Han Chen, Bo-Hao Su, Ya-Tse Wu, Chi-Chun Lee,
- Abstract要約: 三次元感情埋め込みと補助学習を統合した音声-LLMであるRE-LLMを提案する。
実験では、3つのデータセットにまたがる共感の指標が統計的に有意な増加を示した。
- 参考スコア(独自算出の注目度): 35.31585885627661
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With generative AI advancing, empathy in human-AI interaction is essential. While prior work focuses on emotional reflection, emotional exploration, key to deeper engagement, remains overlooked. Existing LLMs rely on text which captures limited emotion nuances. To address this, we propose RE-LLM, a speech-LLM integrating dimensional emotion embeddings and auxiliary learning. Experiments show statistically significant gains in empathy metrics across three datasets. RE-LLM relatively improves the Emotional Reaction score by 14.79% and 6.76% compared to text-only and speech-LLM baselines on ESD. Notably, it raises the Exploration score by 35.42% and 3.91% on IEMOCAP, 139.28% and 9.83% on ESD, and 60.95% and 22.64% on MSP-PODCAST. It also boosts unweighted accuracy by 5.4% on IEMOCAP, 2.3% on ESD, and 6.9% on MSP-PODCAST in speech emotion recognition. These results highlight the enriched emotional understanding and improved empathetic response generation of RE-LLM.
- Abstract(参考訳): 生成AIが進歩するにつれ、人間とAIの相互作用への共感が不可欠である。
以前の研究は感情的な反射に焦点を当てていたが、より深いエンゲージメントの鍵である感情的な探索は見落とされ続けている。
既存のLLMは、限られた感情ニュアンスをキャプチャするテキストに依存している。
そこで我々は, 三次元感情埋め込みと補助学習を統合したRE-LLMを提案する。
実験では、3つのデータセットにまたがる共感の指標が統計的に有意な増加を示した。
RE-LLMは感情反応のスコアを14.79%と6.76%改善する。
特に、IEMOCAPで35.42%、IEMOCAPで3.91%、ESDで139.28%、ESDで9.83%、MSP-PODCASTで60.95%、22.64%上昇している。
また、IEMOCAPでは5.4%、ESDでは2.3%、MSP-PODCASTでは6.9%の非重み付け精度が向上している。
これらの結果は,RE-LLMの豊かな感情的理解と共感的反応生成の改善を浮き彫りにした。
関連論文リスト
- Decomposing Theory of Mind: How Emotional Processing Mediates ToM Abilities in LLMs [6.14481021961242]
ステアリングとベースラインLLMのアクティベーションを比較することで,言語モデルにおけるToMの分解を提案する。
信念帰属タスク(32.5%から46.7%の精度)のパフォーマンスは、感情内容を処理するアクティベーションによって改善されている。
このことは、LSMにおけるToM能力の成功は、分析的推論ではなく、感情的な理解によって媒介されていることを示唆している。
論文 参考訳(メタデータ) (2025-11-19T21:56:00Z) - RLAIF-SPA: Optimizing LLM-based Emotional Speech Synthesis via RLAIF [23.474332076771308]
テキスト音声合成は中性音声においてほぼ人間に近い品質を達成しているが、感情的な表現性は依然として課題である。
本稿では,AIフィードバック機構からの強化学習を取り入れたRLAIF-SPAフレームワークを提案する。
Libri 音声データセットの実験によると、RLAIF-SPA は Chat-TTS より優れており、WER は26.1%、SIM-O は9.1%、人的評価は10%以上向上している。
論文 参考訳(メタデータ) (2025-10-16T12:40:37Z) - Empaths at SemEval-2025 Task 11: Retrieval-Augmented Approach to Perceived Emotions Prediction [83.88591755871734]
EmoRAGは、SemEval-2025 Task 11, Subtask A: Multi-label Emotion Detectionのためのテキスト中の知覚感情を検出するように設計されたシステムである。
我々は、与えられたテキストスニペットから話者の知覚された感情を予測することに集中し、喜び、悲しみ、恐怖、怒り、驚き、嫌悪感などの感情をラベル付けする。
論文 参考訳(メタデータ) (2025-06-04T19:41:24Z) - APTNESS: Incorporating Appraisal Theory and Emotion Support Strategies for Empathetic Response Generation [71.26755736617478]
共感反応生成は、他人の感情を理解するように設計されている。
検索強化と感情支援戦略統合を組み合わせたフレームワークを開発する。
我々の枠組みは認知的・情緒的共感の両面からLLMの共感能力を高めることができる。
論文 参考訳(メタデータ) (2024-07-23T02:23:37Z) - Emotion-LLaMA: Multimodal Emotion Recognition and Reasoning with Instruction Tuning [55.127202990679976]
28,618粒の粗粒と4,487粒の細粒のアノテートサンプルを含むMERRデータセットを導入した。
このデータセットは、さまざまなシナリオから学習し、現実のアプリケーションに一般化することを可能にする。
本研究では,感情特異的エンコーダによる音声,視覚,テキスト入力をシームレスに統合するモデルであるEmotion-LLaMAを提案する。
論文 参考訳(メタデータ) (2024-06-17T03:01:22Z) - Are Large Language Models More Empathetic than Humans? [14.18033127602866]
GPT-4は最も共感的な反応として現れ、人間のベンチマークに比べて約31%の反応が「Good」と評価された。
一部のLSMは、特定の感情に反応するのが他よりもはるかに優れている。
論文 参考訳(メタデータ) (2024-06-07T16:33:43Z) - Large Language Models Understand and Can be Enhanced by Emotional
Stimuli [53.53886609012119]
我々は、感情的な刺激を理解するために、大規模言語モデルの能力を探究する第一歩を踏み出す。
実験の結果,LLMは感情的知能を把握でき,その性能は感情的刺激によって改善できることがわかった。
EmotionPromptが生成タスクの性能を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-07-14T00:57:12Z) - End-to-End Speech Emotion Recognition: Challenges of Real-Life Emergency
Call Centers Data Recordings [0.0]
音声感情認識のためのエンドツーエンドのディープラーニングシステムは、従来の機械学習手法と同等あるいはそれ以上の結果が得られる。
コミュニティが利用できる広く使われているコーパスであるIEMOCAPで、まずそれをトレーニングし、テストしました。
次に、485人の話者から440のダイアログ(2h16m)からなる実生活コーパスCEMOと同じアーキテクチャを使用した。
論文 参考訳(メタデータ) (2021-10-28T08:56:57Z) - Reinforcement Learning for Emotional Text-to-Speech Synthesis with
Improved Emotion Discriminability [82.39099867188547]
感情的テキスト音声合成(ETTS)は近年大きく進歩している。
i-ETTSと呼ばれるETTSの新しい対話型トレーニングパラダイムを提案する。
i-ETTSの最適化品質を確保するため、強化学習による反復トレーニング戦略を策定します。
論文 参考訳(メタデータ) (2021-04-03T13:52:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。