論文の概要: Emo Pillars: Knowledge Distillation to Support Fine-Grained Context-Aware and Context-Less Emotion Classification
- arxiv url: http://arxiv.org/abs/2504.16856v1
- Date: Wed, 23 Apr 2025 16:23:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 15:16:41.411612
- Title: Emo Pillars: Knowledge Distillation to Support Fine-Grained Context-Aware and Context-Less Emotion Classification
- Title(参考訳): エモピラー:細粒度コンテキスト認識とコンテキストレス感情分類を支援する知識蒸留
- Authors: Alexander Shvets,
- Abstract要約: 感情分析のためのほとんどのデータセットは、意見が表現された文脈を欠き、感情理解に不可欠であり、主にいくつかの感情カテゴリーによって制限される。
我々はLLMベースのデータ合成パイプラインを設計し、よりアクセスしやすい軽量BERT型エンコーダモデルのトレーニング例を生成するために、大規模モデルMistral-7bを利用する。
Emo Pillarsモデルは、GoEmotions、ISEAR、IEMOCAP、EmoContextといった特定のタスクに調整された場合、新しいドメインに対して高い適応性を示し、最初の3つでSOTAのパフォーマンスに達した。
- 参考スコア(独自算出の注目度): 56.974545305472304
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most datasets for sentiment analysis lack context in which an opinion was expressed, often crucial for emotion understanding, and are mainly limited by a few emotion categories. Foundation large language models (LLMs) like GPT-4 suffer from over-predicting emotions and are too resource-intensive. We design an LLM-based data synthesis pipeline and leverage a large model, Mistral-7b, for the generation of training examples for more accessible, lightweight BERT-type encoder models. We focus on enlarging the semantic diversity of examples and propose grounding the generation into a corpus of narratives to produce non-repetitive story-character-centered utterances with unique contexts over 28 emotion classes. By running 700K inferences in 450 GPU hours, we contribute with the dataset of 100K contextual and also 300K context-less examples to cover both scenarios. We use it for fine-tuning pre-trained encoders, which results in several Emo Pillars models. We show that Emo Pillars models are highly adaptive to new domains when tuned to specific tasks such as GoEmotions, ISEAR, IEMOCAP, and EmoContext, reaching the SOTA performance on the first three. We also validate our dataset, conducting statistical analysis and human evaluation, and confirm the success of our measures in utterance diversification (although less for the neutral class) and context personalization, while pointing out the need for improved handling of out-of-taxonomy labels within the pipeline.
- Abstract(参考訳): 感情分析のためのほとんどのデータセットは、意見が表現された文脈を欠き、感情理解に不可欠であり、主にいくつかの感情カテゴリーによって制限される。
GPT-4のような基礎的な大規模言語モデル(LLM)は過度に予測される感情に悩まされており、リソース集約的すぎる。
我々はLLMベースのデータ合成パイプラインを設計し、よりアクセスしやすい軽量BERT型エンコーダモデルのトレーニング例を生成するために、大規模モデルMistral-7bを利用する。
事例の意味的多様性の拡大に焦点をあて,28の感情クラスに特有の文脈を持つ非反復的な物語キャラクタ中心の発話を生成するために,物語のコーパスに生成を基礎付けることを提案する。
450GPU時間で700Kの推論を実行することで、両方のシナリオをカバーするために、100Kコンテキストと300Kコンテキストレスのデータセットにコントリビュートします。
トレーニング済みエンコーダの微調整に使用して,複数のEmo Pillarsモデルを生成する。
Emo Pillarsモデルは、GoEmotions、ISEAR、IEMOCAP、EmoContextといった特定のタスクに調整された場合、新しいドメインに対して高い適応性を示し、最初の3つでSOTAのパフォーマンスに達した。
また,我々のデータセットを検証し,統計的分析と人的評価を行い,発話の多様化(中立クラスでは少ないが)と文脈のパーソナライゼーションにおいて,パイプライン内における分類外ラベルの扱いの改善の必要性を指摘した。
関連論文リスト
- Emotion-LLaMA: Multimodal Emotion Recognition and Reasoning with Instruction Tuning [55.127202990679976]
28,618粒の粗粒と4,487粒の細粒のアノテートサンプルを含むMERRデータセットを導入した。
このデータセットは、さまざまなシナリオから学習し、現実のアプリケーションに一般化することを可能にする。
本研究では,感情特異的エンコーダによる音声,視覚,テキスト入力をシームレスに統合するモデルであるEmotion-LLaMAを提案する。
論文 参考訳(メタデータ) (2024-06-17T03:01:22Z) - VLLMs Provide Better Context for Emotion Understanding Through Common Sense Reasoning [66.23296689828152]
我々は、視覚・言語モデルの機能を活用し、文脈内感情分類を強化する。
第1段階では、VLLMが対象者の明らかな感情の自然言語で記述を生成できるように促すことを提案する。
第2段階では、記述を文脈情報として使用し、画像入力とともに、トランスフォーマーベースのアーキテクチャのトレーニングに使用する。
論文 参考訳(メタデータ) (2024-04-10T15:09:15Z) - Emotion Rendering for Conversational Speech Synthesis with Heterogeneous
Graph-Based Context Modeling [50.99252242917458]
会話音声合成(CSS)は,会話環境の中で適切な韻律と感情のインフレクションで発話を正確に表現することを目的としている。
データ不足の問題に対処するため、私たちはカテゴリと強度の点で感情的なラベルを慎重に作成します。
我々のモデルは感情の理解と表現においてベースラインモデルよりも優れています。
論文 参考訳(メタデータ) (2023-12-19T08:47:50Z) - Language Models (Mostly) Do Not Consider Emotion Triggers When Predicting Emotion [87.18073195745914]
人間の感情が感情の予測において有意であると考えられる特徴とどのように相関するかを検討する。
EmoTriggerを用いて、感情のトリガーを識別する大規模言語モデルの能力を評価する。
分析の結果、感情のトリガーは感情予測モデルにとって健全な特徴ではなく、様々な特徴と感情検出のタスクの間に複雑な相互作用があることが判明した。
論文 参考訳(メタデータ) (2023-11-16T06:20:13Z) - Reevaluating Data Partitioning for Emotion Detection in EmoWOZ [0.0]
EmoWozは、対話のための感情ラベルを提供するMultiWOZの拡張である。
MultiWOZは、当初別の目的のために分割され、新しい感情認識の目的を考えると、分布の変化が生じる。
この問題に対処し、データセットの分布を改善し、データセットシフトを減らすために、感情タグに基づく階層化サンプリング手法を提案する。
論文 参考訳(メタデータ) (2023-03-15T03:06:13Z) - Automatic Emotion Modelling in Written Stories [4.484753247472559]
そこで本稿では,トランスフォーマーをベースとした新たな手法を提案する。
我々は,事前学習したELECTRAモデルを微調整するためのいくつかの戦略を探求し,文の文脈を考えることの利点について検討する。
私たちのコードと追加のアノテーションはhttps://github.com/lc0197/emotion_modelling_stories.orgで利用可能です。
論文 参考訳(メタデータ) (2022-12-21T21:46:01Z) - Leveraging Label Correlations in a Multi-label Setting: A Case Study in
Emotion [0.0]
マルチラベル感情認識モデルにおけるラベル相関を利用して感情検出を改善する。
単言語BERTモデルを用いたSemEval 2018 Task 1 E-cにおいて、スペイン語、英語、アラビア語で最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2022-10-28T02:27:18Z) - DeepEmotex: Classifying Emotion in Text Messages using Deep Transfer
Learning [0.0]
テキスト中の感情を検出する効果的なシーケンシャルトランスファー学習法としてDeepEmotexを提案する。
キュレートされたTwitterデータセットとベンチマークデータセットの両方を用いて実験を行った。
DeepEmotexモデルは、テストデータセット上でのマルチクラスの感情分類において91%以上の精度を達成する。
論文 参考訳(メタデータ) (2022-06-12T03:23:40Z) - GoEmotions: A Dataset of Fine-Grained Emotions [16.05879383442812]
GoEmotionsは、英語で58万件のRedditコメントを手動で注釈付けした最大のデータセットで、27の感情カテゴリまたはニュートラルにラベル付けされている。
BERTベースのモデルでは、提案された分類学で平均F1スコアの.46を達成し、改善の余地を多く残している。
論文 参考訳(メタデータ) (2020-05-01T18:00:02Z) - EmotiCon: Context-Aware Multimodal Emotion Recognition using Frege's
Principle [71.47160118286226]
EmotiConは、ビデオや画像から知覚された人間の感情認識をコンテキスト認識する学習アルゴリズムである。
心理学からフレーゲの文脈原理に動機づけられた我々のアプローチは、感情認識のための文脈の3つの解釈を組み合わせたものである。
平均精度 (AP) スコアは26クラスで35.48であり, 従来の手法よりも7-8の改善が見られた。
論文 参考訳(メタデータ) (2020-03-14T19:55:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。