論文の概要: In-Context Examples Matter: Improving Emotion Recognition in Conversation with Instruction Tuning
- arxiv url: http://arxiv.org/abs/2508.11889v1
- Date: Sat, 16 Aug 2025 03:23:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:10.435113
- Title: In-Context Examples Matter: Improving Emotion Recognition in Conversation with Instruction Tuning
- Title(参考訳): インテクストの事例:授業指導による会話における感情認識の改善
- Authors: Hui Ma, Bo Zhang, Jinpeng Hu, Zenglin Shi,
- Abstract要約: 会話における感情認識 (ERC) は、会話における各発話の感情を特定することを目的としている。
InitERCは,ERCのためのワンステージ・イン・コンテクスト・イン・コンテクスト・チューニング・フレームワークである。
InitERCはLLMに適応し、コンテキストの例からコンテキスト内命令チューニングを通じて話者・コンテキスト・感情アライメントを学習する。
- 参考スコア(独自算出の注目度): 15.153136138757887
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Emotion recognition in conversation (ERC) aims to identify the emotion of each utterance in a conversation, playing a vital role in empathetic artificial intelligence. With the growing of large language models (LLMs), instruction tuning has emerged as a critical paradigm for ERC. Existing studies mainly focus on multi-stage instruction tuning, which first endows LLMs with speaker characteristics, and then conducts context-aware instruction tuning to comprehend emotional states. However, these methods inherently constrains the capacity to jointly capture the dynamic interaction between speaker characteristics and conversational context, resulting in weak alignment among speaker identity, contextual cues, and emotion states within a unified framework. In this paper, we propose InitERC, a simple yet effective one-stage in-context instruction tuning framework for ERC. InitERC adapts LLMs to learn speaker-context-emotion alignment from context examples via in-context instruction tuning. Specifically, InitERC comprises four components, i.e., demonstration pool construction, in-context example selection, prompt template design, and in-context instruction tuning. To explore the impact of in-context examples, we conduct a comprehensive study on three key factors: retrieval strategy, example ordering, and the number of examples. Extensive experiments on three widely used datasets demonstrate that our proposed InitERC achieves substantial improvements over the state-of-the-art baselines.
- Abstract(参考訳): 会話における感情認識は、会話における各発話の感情を識別することを目的としており、共感的人工知能において重要な役割を果たす。
大規模言語モデル(LLM)の発達に伴い、命令チューニングはERCにとって重要なパラダイムとなっている。
既存の研究は主に多段階指導のチューニングに重点を置いており、まずLLMに話者特性を付与し、感情状態を理解するための文脈認識指導を行う。
しかし、これらの手法は、話者特性と会話コンテキストの動的相互作用を共同で捉える能力に固有の制約を与え、結果として、統合された枠組み内での話者識別、文脈的手がかり、感情状態の弱い一致をもたらす。
本稿では,ERCのためのワンステージ・イン・コンテクスト・イン・コンテクスト・チューニング・フレームワークであるInitERCを提案する。
InitERCはLLMに適応し、コンテキストの例からコンテキスト内命令チューニングを通じて話者・コンテキスト・感情アライメントを学習する。
具体的には、InitERCはデモプール構成、インコンテキストのサンプル選択、プロンプトテンプレート設計、インコンテキストのインストラクションチューニングの4つのコンポーネントから構成される。
文脈内事例の影響を探るため,検索戦略,例順,例数という3つの重要な要因を総合的に検討した。
広く使われている3つのデータセットに対する大規模な実験により、提案したInitERCは最先端のベースラインよりも大幅に改善されていることが示された。
関連論文リスト
- Advancing Multi-Party Dialogue Framework with Speaker-ware Contrastive Learning [10.678477576849579]
コントラスト学習に基づく多人数対話応答生成フレームワークを提案する。
CMRは2段階の自己教師型コントラスト学習フレームワークを採用している。
実験の結果、CMRは最先端のモデルよりも優れているだけでなく、大きな事前訓練された言語モデルにも優れていることが示された。
論文 参考訳(メタデータ) (2025-01-20T06:28:22Z) - Unsupervised Mutual Learning of Discourse Parsing and Topic Segmentation in Dialogue [37.618612723025784]
対話システムでは、会話の焦点の管理と対話のコーディネートにおいて、会話が重要な役割を果たす。
修辞的構造と主題的構造という2つの重要な構造から構成される。
我々は、修辞構造とトピック構造を統合する統一表現を導入し、それら間のセマンティック一貫性を確保する。
本稿では,レトリック構造とトピック構造を協調的にモデル化し,追加アノテーションを必要とせずに相互に強化できる教師なし相互学習フレームワーク(UMLF)を提案する。
論文 参考訳(メタデータ) (2024-05-30T08:10:50Z) - Revisiting Conversation Discourse for Dialogue Disentanglement [88.3386821205896]
本稿では,対話談話特性を最大限に活用し,対話の絡み合いを高めることを提案する。
我々は,会話の意味的文脈をより良くモデル化するために,リッチな構造的特徴を統合する構造認識フレームワークを開発した。
我々の研究は、より広範なマルチスレッド対話アプリケーションを促進する大きな可能性を秘めている。
論文 参考訳(メタデータ) (2023-06-06T19:17:47Z) - Channel-aware Decoupling Network for Multi-turn Dialogue Comprehension [81.47133615169203]
本稿では,PrLMの逐次文脈化を超えて,発話間の包括的相互作用のための合成学習を提案する。
私たちは、モデルが対話ドメインに適応するのを助けるために、ドメイン適応型トレーニング戦略を採用しています。
実験の結果,提案手法は4つの公開ベンチマークデータセットにおいて,強力なPrLMベースラインを著しく向上させることがわかった。
論文 参考訳(メタデータ) (2023-01-10T13:18:25Z) - Structural Pre-training for Dialogue Comprehension [51.215629336320305]
本稿では,SPIDER, Structure Pre-trained DialoguE Readerについて述べる。
対話のような特徴をシミュレートするために,元のLM目的に加えて,2つの訓練目標を提案する。
広く使われている対話ベンチマークの実験結果から,新たに導入した自己教師型タスクの有効性が検証された。
論文 参考訳(メタデータ) (2021-05-23T15:16:54Z) - Masking Orchestration: Multi-task Pretraining for Multi-role Dialogue
Representation Learning [50.5572111079898]
マルチロール対話理解は、質問応答、行動分類、対話要約など、幅広い多様なタスクを含む。
対話コーパスは豊富に利用可能であるが、特定の学習タスクのためのラベル付きデータは非常に不足しており、高価である。
本研究では,教師なし事前学習タスクを用いた対話文脈表現学習について検討する。
論文 参考訳(メタデータ) (2020-02-27T04:36:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。