論文の概要: Do LLMs Feel? Teaching Emotion Recognition with Prompts, Retrieval, and Curriculum Learning
- arxiv url: http://arxiv.org/abs/2511.07061v2
- Date: Thu, 13 Nov 2025 01:31:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-13 14:36:36.956722
- Title: Do LLMs Feel? Teaching Emotion Recognition with Prompts, Retrieval, and Curriculum Learning
- Title(参考訳): LLMは有益か? プロンプト, 検索, カリキュラム学習による感情認識の指導
- Authors: Xinran Li, Yu Liu, Jiaqi Qiao, Xiujuan Xu,
- Abstract要約: 会話における感情認識(Emotion Recognition in Conversation、ERC)は、人間の感情を理解し、人間とコンピュータの自然な相互作用を可能にするための重要なタスクである。
本稿では,Promptエンジニアリング,実証検索,カリキュラム学習を統合した新しいERCトレーニングフレームワークであるPRC-Emoを提案する。
提案手法は新たなSOTA(State-of-the-art)性能を実現し,提案手法の有効性と一般化性を示す。
- 参考スコア(独自算出の注目度): 16.195689085967004
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Emotion Recognition in Conversation (ERC) is a crucial task for understanding human emotions and enabling natural human-computer interaction. Although Large Language Models (LLMs) have recently shown great potential in this field, their ability to capture the intrinsic connections between explicit and implicit emotions remains limited. We propose a novel ERC training framework, PRC-Emo, which integrates Prompt engineering, demonstration Retrieval, and Curriculum learning, with the goal of exploring whether LLMs can effectively perceive emotions in conversational contexts. Specifically, we design emotion-sensitive prompt templates based on both explicit and implicit emotional cues to better guide the model in understanding the speaker's psychological states. We construct the first dedicated demonstration retrieval repository for ERC, which includes training samples from widely used datasets, as well as high-quality dialogue examples generated by LLMs and manually verified. Moreover, we introduce a curriculum learning strategy into the LoRA fine-tuning process, incorporating weighted emotional shifts between same-speaker and different-speaker utterances to assign difficulty levels to dialogue samples, which are then organized in an easy-to-hard training sequence. Experimental results on two benchmark datasets -- IEMOCAP and MELD -- show that our method achieves new state-of-the-art (SOTA) performance, demonstrating the effectiveness and generalizability of our approach in improving LLM-based emotional understanding.
- Abstract(参考訳): 会話における感情認識(Emotion Recognition in Conversation、ERC)は、人間の感情を理解し、人間とコンピュータの自然な相互作用を可能にするための重要なタスクである。
大規模言語モデル(LLM)はこの分野で大きな可能性を示しているが、明示的な感情と暗黙的な感情の間の本質的なつながりを捉える能力は依然として限られている。
本稿では,会話場面における感情を効果的に知覚できるかを検討することを目的として,プロンプト工学,実証検索,カリキュラム学習を統合した新しいERCトレーニングフレームワークであるPRC-Emoを提案する。
具体的には、明示的な感情的手がかりと暗黙的な感情的手がかりの両方に基づいて、感情に敏感なプロンプトテンプレートを設計し、話者の心理的状態を理解するためのモデルを改善する。
我々は、広く使われているデータセットからのトレーニングサンプルと、LLMが生成し手作業で検証した高品質な対話例を含む、ERCのための最初の専用のデモ検索リポジトリを構築した。
さらに,LoRAの微調整プロセスにカリキュラム学習戦略を導入し,同じ話者と異なる話者の発話の重み付けされた感情変化を取り入れて,難易度を対話サンプルに割り当てる。
2つのベンチマークデータセット(IEMOCAPとMELD)による実験結果から,本手法は新たなSOTA(State-of-the-art)性能を実現し,LLMに基づく感情理解の改善におけるアプローチの有効性と一般化性を示す。
関連論文リスト
- In-Context Examples Matter: Improving Emotion Recognition in Conversation with Instruction Tuning [15.153136138757887]
会話における感情認識 (ERC) は、会話における各発話の感情を特定することを目的としている。
InitERCは,ERCのためのワンステージ・イン・コンテクスト・イン・コンテクスト・チューニング・フレームワークである。
InitERCはLLMに適応し、コンテキストの例からコンテキスト内命令チューニングを通じて話者・コンテキスト・感情アライメントを学習する。
論文 参考訳(メタデータ) (2025-08-16T03:23:48Z) - Exploring Knowledge Tracing in Tutor-Student Dialogues using LLMs [49.18567856499736]
本研究では,大規模言語モデル(LLM)が対話学習を支援することができるかどうかを検討する。
我々は,学習者の知識レベルを対話全体にわたって追跡するために,ラベル付きデータに知識追跡(KT)手法を適用した。
我々は,2つの学習対話データセットの実験を行い,従来のKT手法よりも学生の反応の正しさを予測できる新しいLCM-based method LLMKTが優れていることを示す。
論文 参考訳(メタデータ) (2024-09-24T22:31:39Z) - LaERC-S: Improving LLM-based Emotion Recognition in Conversation with Speaker Characteristics [25.284238441231853]
会話における感情認識(英: Emotion Recognition in conversation、ERC)とは、会話中の発話ごとに人間の感情を識別するタスクである。
ERCにおける最近の研究は、感情状態を理解するために話者モデリングを用いた事前訓練された大規模言語モデル(LLM)の利用を模索している。
LLMを刺激する新しいフレームワークであるLaERC-Sを提案する。
論文 参考訳(メタデータ) (2024-03-12T02:37:11Z) - Affect Recognition in Conversations Using Large Language Models [9.689990547610664]
影響認識は人間のコミュニケーションにおいて重要な役割を担っている。
本研究では,会話における人間の影響を認識するための言語モデル(LLM)の能力について検討する。
論文 参考訳(メタデータ) (2023-09-22T14:11:23Z) - Building Emotional Support Chatbots in the Era of LLMs [64.06811786616471]
我々は,Large Language Models (LLMs) の計算能力で人間の洞察を合成する革新的な方法論を導入する。
また,ChatGPTの文脈内学習の可能性を利用して,ExTESと呼ばれる感情支援対話データセットを生成する。
次に、LLaMAモデルに高度なチューニング手法を展開し、多様なトレーニング戦略の影響を検証し、最終的に感情的支援の相互作用に細心の注意を払ってLLMを出力する。
論文 参考訳(メタデータ) (2023-08-17T10:49:18Z) - Large Language Models Understand and Can be Enhanced by Emotional
Stimuli [53.53886609012119]
我々は、感情的な刺激を理解するために、大規模言語モデルの能力を探究する第一歩を踏み出す。
実験の結果,LLMは感情的知能を把握でき,その性能は感情的刺激によって改善できることがわかった。
EmotionPromptが生成タスクの性能を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-07-14T00:57:12Z) - Contextual Information and Commonsense Based Prompt for Emotion
Recognition in Conversation [14.651642872901496]
会話における感情認識(Emotion Recognition in conversation,ERC)は、ある会話における発話ごとの感情を検出することを目的としている。
近年のERCモデルは、事前学習と微調整のパラダイムを取り入れた事前学習言語モデル(PLM)を活用して、優れた性能を実現している。
本稿では,命令モデルと言語モデル(LM)チューニングの新しいパラダイムを取り入れた新しいERCモデルCISPERを提案する。
論文 参考訳(メタデータ) (2022-07-27T02:34:05Z) - Hybrid Curriculum Learning for Emotion Recognition in Conversation [10.912215835115063]
本枠組みは,(1)会話レベルカリキュラム(CC)と(2)発話レベルカリキュラム(UC)の2つのカリキュラムから構成される。
提案したモデルに依存しないハイブリッドカリキュラム学習戦略により,既存のERCモデルに対する大幅な性能向上が観測された。
論文 参考訳(メタデータ) (2021-12-22T08:02:58Z) - An Attribute-Aligned Strategy for Learning Speech Representation [57.891727280493015]
属性選択機構によってこれらの問題に柔軟に対処できる音声表現を導出する属性整合学習戦略を提案する。
具体的には、音声表現を属性依存ノードに分解する層式表現可変オートエンコーダ(LR-VAE)を提案する。
提案手法は,IDのないSER上での競合性能と,無感情SV上でのより良い性能を実現する。
論文 参考訳(メタデータ) (2021-06-05T06:19:14Z) - Reinforcement Learning for Emotional Text-to-Speech Synthesis with
Improved Emotion Discriminability [82.39099867188547]
感情的テキスト音声合成(ETTS)は近年大きく進歩している。
i-ETTSと呼ばれるETTSの新しい対話型トレーニングパラダイムを提案する。
i-ETTSの最適化品質を確保するため、強化学習による反復トレーニング戦略を策定します。
論文 参考訳(メタデータ) (2021-04-03T13:52:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。