論文の概要: RE-LLM: Refining Empathetic Speech-LLM Responses by Integrating Emotion Nuance
- arxiv url: http://arxiv.org/abs/2602.10716v1
- Date: Wed, 11 Feb 2026 10:23:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:01.750844
- Title: RE-LLM: Refining Empathetic Speech-LLM Responses by Integrating Emotion Nuance
- Title(参考訳): RE-LLM:感情ニュアンスの統合による共感的音声-LLM応答の精製
- Authors: Jing-Han Chen, Bo-Hao Su, Ya-Tse Wu, Chi-Chun Lee,
- Abstract要約: 三次元感情埋め込みと補助学習を統合した音声-LLMであるRE-LLMを提案する。
実験では、3つのデータセットにまたがる共感の指標が統計的に有意な増加を示した。
- 参考スコア(独自算出の注目度): 35.31585885627661
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With generative AI advancing, empathy in human-AI interaction is essential. While prior work focuses on emotional reflection, emotional exploration, key to deeper engagement, remains overlooked. Existing LLMs rely on text which captures limited emotion nuances. To address this, we propose RE-LLM, a speech-LLM integrating dimensional emotion embeddings and auxiliary learning. Experiments show statistically significant gains in empathy metrics across three datasets. RE-LLM relatively improves the Emotional Reaction score by 14.79% and 6.76% compared to text-only and speech-LLM baselines on ESD. Notably, it raises the Exploration score by 35.42% and 3.91% on IEMOCAP, 139.28% and 9.83% on ESD, and 60.95% and 22.64% on MSP-PODCAST. It also boosts unweighted accuracy by 5.4% on IEMOCAP, 2.3% on ESD, and 6.9% on MSP-PODCAST in speech emotion recognition. These results highlight the enriched emotional understanding and improved empathetic response generation of RE-LLM.
- Abstract(参考訳): 生成AIが進歩するにつれ、人間とAIの相互作用への共感が不可欠である。
以前の研究は感情的な反射に焦点を当てていたが、より深いエンゲージメントの鍵である感情的な探索は見落とされ続けている。
既存のLLMは、限られた感情ニュアンスをキャプチャするテキストに依存している。
そこで我々は, 三次元感情埋め込みと補助学習を統合したRE-LLMを提案する。
実験では、3つのデータセットにまたがる共感の指標が統計的に有意な増加を示した。
RE-LLMは感情反応のスコアを14.79%と6.76%改善する。
特に、IEMOCAPで35.42%、IEMOCAPで3.91%、ESDで139.28%、ESDで9.83%、MSP-PODCASTで60.95%、22.64%上昇している。
また、IEMOCAPでは5.4%、ESDでは2.3%、MSP-PODCASTでは6.9%の非重み付け精度が向上している。
これらの結果は,RE-LLMの豊かな感情的理解と共感的反応生成の改善を浮き彫りにした。
関連論文リスト
- Are Large Language Models More Empathetic than Humans? [14.18033127602866]
GPT-4は最も共感的な反応として現れ、人間のベンチマークに比べて約31%の反応が「Good」と評価された。
一部のLSMは、特定の感情に反応するのが他よりもはるかに優れている。
論文 参考訳(メタデータ) (2024-06-07T16:33:43Z) - Large Language Models Understand and Can be Enhanced by Emotional
Stimuli [53.53886609012119]
我々は、感情的な刺激を理解するために、大規模言語モデルの能力を探究する第一歩を踏み出す。
実験の結果,LLMは感情的知能を把握でき,その性能は感情的刺激によって改善できることがわかった。
EmotionPromptが生成タスクの性能を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-07-14T00:57:12Z) - End-to-End Speech Emotion Recognition: Challenges of Real-Life Emergency
Call Centers Data Recordings [0.0]
音声感情認識のためのエンドツーエンドのディープラーニングシステムは、従来の機械学習手法と同等あるいはそれ以上の結果が得られる。
コミュニティが利用できる広く使われているコーパスであるIEMOCAPで、まずそれをトレーニングし、テストしました。
次に、485人の話者から440のダイアログ(2h16m)からなる実生活コーパスCEMOと同じアーキテクチャを使用した。
論文 参考訳(メタデータ) (2021-10-28T08:56:57Z) - Reinforcement Learning for Emotional Text-to-Speech Synthesis with
Improved Emotion Discriminability [82.39099867188547]
感情的テキスト音声合成(ETTS)は近年大きく進歩している。
i-ETTSと呼ばれるETTSの新しい対話型トレーニングパラダイムを提案する。
i-ETTSの最適化品質を確保するため、強化学習による反復トレーニング戦略を策定します。
論文 参考訳(メタデータ) (2021-04-03T13:52:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。