論文の概要: Contrastive Distillation of Emotion Knowledge from LLMs for Zero-Shot Emotion Recognition
- arxiv url: http://arxiv.org/abs/2505.18040v1
- Date: Fri, 23 May 2025 15:44:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-26 18:08:34.203429
- Title: Contrastive Distillation of Emotion Knowledge from LLMs for Zero-Shot Emotion Recognition
- Title(参考訳): ゼロショット感情認識のためのLLMからの感情知識の対照的な蒸留
- Authors: Minxue Niu, Emily Mower Provost,
- Abstract要約: 本研究では,大規模言語モデルからコンパクトなモデルへ,豊かな感情的知識を伝達するコントラスト蒸留フレームワークを提案する。
我々は、GPT-4を使って記述的な感情アノテーションを生成し、固定されたラベルセットを超えてリッチな監視を提供する。
このモデルは複数のデータセットやラベル空間で有効であり、同じ大きさの強いベースラインを上回り、GPT-4のゼロショット性能に近づいた。
- 参考スコア(独自算出の注目度): 9.026624193735868
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ability to handle various emotion labels without dedicated training is crucial for building adaptable Emotion Recognition (ER) systems. Conventional ER models rely on training using fixed label sets and struggle to generalize beyond them. On the other hand, Large Language Models (LLMs) have shown strong zero-shot ER performance across diverse label spaces, but their scale limits their use on edge devices. In this work, we propose a contrastive distillation framework that transfers rich emotional knowledge from LLMs into a compact model without the use of human annotations. We use GPT-4 to generate descriptive emotion annotations, offering rich supervision beyond fixed label sets. By aligning text samples with emotion descriptors in a shared embedding space, our method enables zero-shot prediction on different emotion classes, granularity, and label schema. The distilled model is effective across multiple datasets and label spaces, outperforming strong baselines of similar size and approaching GPT-4's zero-shot performance, while being over 10,000 times smaller.
- Abstract(参考訳): 適応型感情認識(ER)システムを構築するためには、専用のトレーニングなしで様々な感情ラベルを扱う能力が不可欠である。
従来のERモデルは固定ラベルセットを使用したトレーニングに頼っており、それら以外の一般化に苦慮している。
一方,Large Language Models (LLMs) はラベル空間にまたがるゼロショットERの性能は高いが,そのスケールはエッジデバイスでの使用を制限する。
本研究では,LLMから人間のアノテーションを使わずに,豊かな感情的知識をコンパクトなモデルに伝達するコントラスト蒸留フレームワークを提案する。
我々は、GPT-4を使って記述的な感情アノテーションを生成し、固定されたラベルセットを超えてリッチな監視を提供する。
テキストサンプルを共有埋め込み空間の感情記述子と整列させることで、異なる感情クラス、粒度、ラベルスキーマのゼロショット予測を可能にする。
蒸留されたモデルは複数のデータセットやラベル空間で有効であり、同じ大きさの強いベースラインを上回り、GPT-4のゼロショット性能に近づき、1万倍以上の小さい。
関連論文リスト
- EmoGist: Efficient In-Context Learning for Visual Emotion Understanding [19.979621982792885]
EmoGist(エモギスト)は、LVLMを用いた視覚的感情分類を行うための、トレーニング不要でコンテキスト内学習手法である。
EmoGistは、マルチラベルのMemotionデータセットを用いて、最大13ポイントのマイクロF1スコアの改善を可能にする。
論文 参考訳(メタデータ) (2025-05-20T17:47:04Z) - Emo Pillars: Knowledge Distillation to Support Fine-Grained Context-Aware and Context-Less Emotion Classification [56.974545305472304]
感情分析のためのほとんどのデータセットは、意見が表現された文脈を欠き、感情理解に不可欠であり、主にいくつかの感情カテゴリーによって制限される。
我々はLLMベースのデータ合成パイプラインを設計し、よりアクセスしやすい軽量BERT型エンコーダモデルのトレーニング例を生成するために、大規模モデルMistral-7bを利用する。
Emo Pillarsモデルは、GoEmotions、ISEAR、IEMOCAP、EmoContextといった特定のタスクに調整された場合、新しいドメインに対して高い適応性を示し、最初の3つでSOTAのパフォーマンスに達した。
論文 参考訳(メタデータ) (2025-04-23T16:23:17Z) - Leveraging Label Potential for Enhanced Multimodal Emotion Recognition [6.725011823614421]
マルチモーダル感情認識(MER)は、感情状態を正確に予測するために様々なモダリティを統合する。
本稿では,この制限を克服するために,ラベル信号誘導マルチモーダル感情認識(LSGMER)と呼ばれる新しいモデルを提案する。
論文 参考訳(メタデータ) (2025-04-07T15:00:34Z) - DISCOVER: Data-driven Identification of Sub-activities via Clustering and Visualization for Enhanced Activity Recognition in Smart Homes [52.09869569068291]
本研究では,未ラベルセンサデータから詳細な人間のサブアクティビティを検出する手法であるdiscoVERについて,事前のセグメンテーションに頼ることなく紹介する。
広範に使用されているHARデータセットに対する再注釈演習を通じて,その効果を実証する。
論文 参考訳(メタデータ) (2025-02-11T20:02:24Z) - Ground Truth Inference for Weakly Supervised Entity Matching [76.6732856489872]
弱監督タスクのための単純だが強力なラベル付けモデルを提案する。
次に、エンティティマッチングのタスクに特化してラベルモデルを調整します。
その結果,従来の手法よりもF1スコアが9%高い結果が得られた。
論文 参考訳(メタデータ) (2022-11-13T17:57:07Z) - Leveraging Label Correlations in a Multi-label Setting: A Case Study in
Emotion [0.0]
マルチラベル感情認識モデルにおけるラベル相関を利用して感情検出を改善する。
単言語BERTモデルを用いたSemEval 2018 Task 1 E-cにおいて、スペイン語、英語、アラビア語で最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2022-10-28T02:27:18Z) - MAFW: A Large-scale, Multi-modal, Compound Affective Database for
Dynamic Facial Expression Recognition in the Wild [56.61912265155151]
大規模複合感情データベースMAFWを提案する。
各クリップには、複雑な感情カテゴリーと、クリップ内の被験者の感情行動を記述する2つの文が注釈付けされている。
複合感情のアノテーションでは、それぞれのクリップは、怒り、嫌悪感、恐怖、幸福、中立、悲しみ、驚き、軽蔑、不安、無力感、失望など、広く使われている11の感情のうちの1つ以上に分類される。
論文 参考訳(メタデータ) (2022-08-01T13:34:33Z) - Multimodal Emotion Recognition with Modality-Pairwise Unsupervised
Contrastive Loss [80.79641247882012]
マルチモーダル感情認識(MER)のための教師なし特徴学習に着目した。
個別の感情を考慮し、モダリティテキスト、音声、視覚が使用される。
本手法は, 対のモダリティ間のコントラスト損失に基づくもので, MER文学における最初の試みである。
論文 参考訳(メタデータ) (2022-07-23T10:11:24Z) - SpanEmo: Casting Multi-label Emotion Classification as Span-prediction [15.41237087996244]
マルチラベル感情分類をスパンプレディションとした新しいモデル「SpanEmo」を提案する。
入力文中の複数の共存感情をモデル化することに焦点を当てた損失関数を導入する。
SemEval2018マルチラベル感情データを3つの言語セットで実験した結果,本手法の有効性が示された。
論文 参考訳(メタデータ) (2021-01-25T12:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。