論文の概要: Fine-Grained Emotion Recognition via In-Context Learning
- arxiv url: http://arxiv.org/abs/2510.06600v1
- Date: Wed, 08 Oct 2025 03:17:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.271785
- Title: Fine-Grained Emotion Recognition via In-Context Learning
- Title(参考訳): インコンテキスト学習による微粒感情認識
- Authors: Zhaochun Ren, Zhou Yang, Chenglong Ye, Haizhou Sun, Chao Chen, Xiaofei Zhu, Xiangwen Liao,
- Abstract要約: きめ細かい感情認識は、推論と意思決定プロセスを通じて、クエリの感情タイプを特定することを目的としている。
最近の手法では、インコンテキスト学習(ICL)が使われ、意味論的に類似した例を通してクエリの表現が強化されている。
本稿では,プロトタイプ理論による微粒な感情認識における意思決定について検討する。
- 参考スコア(独自算出の注目度): 24.79387634284384
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fine-grained emotion recognition aims to identify the emotional type in queries through reasoning and decision-making processes, playing a crucial role in various systems. Recent methods use In-Context Learning (ICL), enhancing the representation of queries in the reasoning process through semantically similar examples, while further improving emotion recognition by explaining the reasoning mechanisms. However, these methods enhance the reasoning process but overlook the decision-making process. This paper investigates decision-making in fine-grained emotion recognition through prototype theory. We show that ICL relies on similarity matching between query representations and emotional prototypes within the model, where emotion-accurate representations are critical. However, semantically similar examples often introduce emotional discrepancies, hindering accurate representations and causing errors. To address this, we propose Emotion In-Context Learning (EICL), which introduces emotionally similar examples and uses a dynamic soft-label strategy to improve query representations in the emotion reasoning process. A two-stage exclusion strategy is then employed to assess similarity from multiple angles, further optimizing the decision-making process. Extensive experiments show that EICL significantly outperforms ICL on multiple datasets.
- Abstract(参考訳): きめ細かい感情認識は、様々なシステムにおいて重要な役割を担いながら、推論や意思決定プロセスを通じてクエリの感情タイプを特定することを目的としている。
近年の手法では、ICL(In-Context Learning)を用いて、意味論的に類似した例を通して、推論過程におけるクエリの表現を強化し、推論機構を説明することにより、感情認識をさらに改善している。
しかし、これらの手法は推論プロセスを強化するが、意思決定プロセスを見落としている。
本稿では,プロトタイプ理論による微粒な感情認識における意思決定について検討する。
ICLは、クエリ表現とモデル内の感情的プロトタイプとの類似性マッチングに依存しており、感情的-正確な表現が重要であることを示す。
しかし、意味的に類似した例は、しばしば感情的な相違を導入し、正確な表現を妨げ、エラーを引き起こす。
これを解決するために,情緒的類似例を導入し,動的ソフトラベル戦略を用いて感情推論プロセスにおけるクエリ表現を改善するEmotion In-Context Learning (EICL)を提案する。
次に、2段階の排除戦略を用いて、複数の角度から類似性を評価し、さらに意思決定プロセスを最適化する。
大規模な実験により、EICLは複数のデータセットでICLを著しく上回っていることがわかった。
関連論文リスト
- E-ICL: Enhancing Fine-Grained Emotion Recognition through the Lens of Prototype Theory [21.54245518795988]
本稿では,プロトタイプ理論の観点からICLの性能低下の原因を明らかにする。
感情認識のための感情文脈学習法(E-ICL)を提案する。
EDOS, Empathetic-Dialogues, EmpatheticIntent, GoEmotionsの詳細な感情データセット実験により, E-ICLが優れた感情予測性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-06-04T10:59:43Z) - ECR-Chain: Advancing Generative Language Models to Better Emotion-Cause Reasoners through Reasoning Chains [61.50113532215864]
CEE(Causal Emotion Entailment)は、ターゲット発話で表現される感情を刺激する会話における因果発話を特定することを目的としている。
CEEにおける現在の研究は、主に会話のセマンティックな相互作用と感情的な相互作用をモデル化することに焦点を当てている。
本研究では,会話中の感情表現から刺激を推測するために,ステップバイステップの推論手法である感情・因果関係(ECR-Chain)を導入する。
論文 参考訳(メタデータ) (2024-05-17T15:45:08Z) - Emotion-Anchored Contrastive Learning Framework for Emotion Recognition in Conversation [23.309174697717374]
会話における感情認識(英: Emotion Recognition in Conversation、ERC)とは、会話の中で各発話の背後にある感情を検出することである。
類似した感情に対してより識別可能な発話表現を生成できる感情認識コントラスト学習フレームワークを提案する。
提案したEACLは、最先端の感情認識性能を達成し、類似した感情に対して優れた性能を示す。
論文 参考訳(メタデータ) (2024-03-29T17:00:55Z) - Seeking Subjectivity in Visual Emotion Distribution Learning [93.96205258496697]
視覚感情分析(VEA)は、人々の感情を異なる視覚刺激に向けて予測することを目的としている。
既存の手法では、集団投票プロセスにおいて固有の主観性を無視して、統合されたネットワークにおける視覚的感情分布を予測することが多い。
視覚的感情分布の主観性を調べるために,新しいテキストサブジェクティビティ評価ネットワーク(SAMNet)を提案する。
論文 参考訳(メタデータ) (2022-07-25T02:20:03Z) - Stimuli-Aware Visual Emotion Analysis [75.68305830514007]
本稿では,刺激選択,特徴抽出,感情予測の3段階からなる刺激認識型視覚感情分析(VEA)手法を提案する。
我々の知る限りでは、エンド・ツー・エンドのネットワークでVEAに刺激選択プロセスを導入するのは初めてです。
実験により、提案手法は、4つの公的な視覚的感情データセットに対する最先端のアプローチよりも一貫して優れていることが示された。
論文 参考訳(メタデータ) (2021-09-04T08:14:52Z) - Emotion Recognition from Multiple Modalities: Fundamentals and
Methodologies [106.62835060095532]
マルチモーダル感情認識(MER)のいくつかの重要な側面について論じる。
まず、広く使われている感情表現モデルと感情モダリティの簡単な紹介から始める。
次に、既存の感情アノテーション戦略とそれに対応する計算タスクを要約する。
最後に,実世界のアプリケーションについて概説し,今後の方向性について論じる。
論文 参考訳(メタデータ) (2021-08-18T21:55:20Z) - A Circular-Structured Representation for Visual Emotion Distribution
Learning [82.89776298753661]
視覚的感情分布学習に先立つ知識を活用するために,身近な円形構造表現を提案する。
具体的には、まず感情圏を構築し、その内にある感情状態を統一する。
提案した感情圏では、各感情分布は3つの属性で定義される感情ベクトルで表される。
論文 参考訳(メタデータ) (2021-06-23T14:53:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。