論文の概要: GoEmotions: A Dataset of Fine-Grained Emotions
- arxiv url: http://arxiv.org/abs/2005.00547v2
- Date: Wed, 3 Jun 2020 00:31:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 23:56:19.142411
- Title: GoEmotions: A Dataset of Fine-Grained Emotions
- Title(参考訳): GoEmotions: 細かい感情のデータセット
- Authors: Dorottya Demszky, Dana Movshovitz-Attias, Jeongwoo Ko, Alan Cowen,
Gaurav Nemade and Sujith Ravi
- Abstract要約: GoEmotionsは、英語で58万件のRedditコメントを手動で注釈付けした最大のデータセットで、27の感情カテゴリまたはニュートラルにラベル付けされている。
BERTベースのモデルでは、提案された分類学で平均F1スコアの.46を達成し、改善の余地を多く残している。
- 参考スコア(独自算出の注目度): 16.05879383442812
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding emotion expressed in language has a wide range of applications,
from building empathetic chatbots to detecting harmful online behavior.
Advancement in this area can be improved using large-scale datasets with a
fine-grained typology, adaptable to multiple downstream tasks. We introduce
GoEmotions, the largest manually annotated dataset of 58k English Reddit
comments, labeled for 27 emotion categories or Neutral. We demonstrate the high
quality of the annotations via Principal Preserved Component Analysis. We
conduct transfer learning experiments with existing emotion benchmarks to show
that our dataset generalizes well to other domains and different emotion
taxonomies. Our BERT-based model achieves an average F1-score of .46 across our
proposed taxonomy, leaving much room for improvement.
- Abstract(参考訳): 言語で表現される感情を理解するには、共感的なチャットボットの構築から有害なオンライン行動の検出に至るまで、幅広い応用がある。
この領域の進歩は、複数の下流タスクに適応可能な、きめ細かい型付き大規模データセットを使用して改善することができる。
GoEmotionsは、英語で58万件のRedditコメントを手動で注釈付けした最大のデータセットで、27の感情カテゴリまたはニュートラルにラベル付けされている。
主成分分析によってアノテーションの質が向上することを示す。
既存の感情ベンチマークで転送学習実験を行い、データセットが他のドメインや異なる感情分類にうまく一般化していることを示す。
BERTベースのモデルでは、提案した分類法の平均F1スコアは.46であり、改善の余地はたくさんある。
関連論文リスト
- Emotion-LLaMA: Multimodal Emotion Recognition and Reasoning with Instruction Tuning [55.127202990679976]
28,618粒の粗粒と4,487粒の細粒のアノテートサンプルを含むMERRデータセットを導入した。
このデータセットは、さまざまなシナリオから学習し、現実のアプリケーションに一般化することを可能にする。
本研究では,感情特異的エンコーダによる音声,視覚,テキスト入力をシームレスに統合するモデルであるEmotion-LLaMAを提案する。
論文 参考訳(メタデータ) (2024-06-17T03:01:22Z) - Large Language Models on Fine-grained Emotion Detection Dataset with Data Augmentation and Transfer Learning [1.124958340749622]
本研究の目的は,テキスト中の微妙な感情を検出することの課題に対処することである。
この発見は、テキストにおける感情検出の課題に対処するための貴重な洞察を提供する。
論文 参考訳(メタデータ) (2024-03-10T06:30:54Z) - eMotions: A Large-Scale Dataset for Emotion Recognition in Short Videos [7.011656298079659]
短いビデオ(SV)が普及すると、SVにおける感情認識の必要性が生じる。
SVの感情データがないことから,27,996本のビデオからなるeMotionsという大規模データセットを導入する。
本稿では,ビデオトランスフォーマを用いて意味的関連表現をよりよく学習する,エンドツーエンドのベースライン方式AV-CPNetを提案する。
論文 参考訳(メタデータ) (2023-11-29T03:24:30Z) - Towards Generalizable SER: Soft Labeling and Data Augmentation for
Modeling Temporal Emotion Shifts in Large-Scale Multilingual Speech [3.86122440373248]
段階的な感情的強度を捉えるソフトラベルシステムを提案する。
コントラスト学習にインスパイアされたWhisperエンコーダとデータ拡張手法を用いて,感情の時間的ダイナミクスを強調する。
Hume-Prosodyを微調整した後、オープンソースモデルウェイトと最初の有望な結果を公開する。
論文 参考訳(メタデータ) (2023-11-15T00:09:21Z) - Automatic Emotion Modelling in Written Stories [4.484753247472559]
そこで本稿では,トランスフォーマーをベースとした新たな手法を提案する。
我々は,事前学習したELECTRAモデルを微調整するためのいくつかの戦略を探求し,文の文脈を考えることの利点について検討する。
私たちのコードと追加のアノテーションはhttps://github.com/lc0197/emotion_modelling_stories.orgで利用可能です。
論文 参考訳(メタデータ) (2022-12-21T21:46:01Z) - MAFW: A Large-scale, Multi-modal, Compound Affective Database for
Dynamic Facial Expression Recognition in the Wild [56.61912265155151]
大規模複合感情データベースMAFWを提案する。
各クリップには、複雑な感情カテゴリーと、クリップ内の被験者の感情行動を記述する2つの文が注釈付けされている。
複合感情のアノテーションでは、それぞれのクリップは、怒り、嫌悪感、恐怖、幸福、中立、悲しみ、驚き、軽蔑、不安、無力感、失望など、広く使われている11の感情のうちの1つ以上に分類される。
論文 参考訳(メタデータ) (2022-08-01T13:34:33Z) - DeepEmotex: Classifying Emotion in Text Messages using Deep Transfer
Learning [0.0]
テキスト中の感情を検出する効果的なシーケンシャルトランスファー学習法としてDeepEmotexを提案する。
キュレートされたTwitterデータセットとベンチマークデータセットの両方を用いて実験を行った。
DeepEmotexモデルは、テストデータセット上でのマルチクラスの感情分類において91%以上の精度を達成する。
論文 参考訳(メタデータ) (2022-06-12T03:23:40Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - Emotional Semantics-Preserved and Feature-Aligned CycleGAN for Visual
Emotion Adaptation [85.20533077846606]
教師なしドメイン適応(UDA)は、あるラベル付きソースドメインで訓練されたモデルを別のラベル付きターゲットドメインに転送する問題を研究する。
本稿では,感情分布学習と支配的感情分類の両面での視覚的感情分析におけるUDAに着目した。
本稿では,CycleEmotionGAN++と呼ばれる,エンドツーエンドのサイクル整合対向モデルを提案する。
論文 参考訳(メタデータ) (2020-11-25T01:31:01Z) - Modality-Transferable Emotion Embeddings for Low-Resource Multimodal
Emotion Recognition [55.44502358463217]
本稿では、上記の問題に対処するため、感情を埋め込んだモダリティ変換可能なモデルを提案する。
我々のモデルは感情カテゴリーのほとんどで最先端のパフォーマンスを達成する。
私たちのモデルは、目に見えない感情に対するゼロショットと少数ショットのシナリオにおいて、既存のベースラインよりも優れています。
論文 参考訳(メタデータ) (2020-09-21T06:10:39Z) - EmotiCon: Context-Aware Multimodal Emotion Recognition using Frege's
Principle [71.47160118286226]
EmotiConは、ビデオや画像から知覚された人間の感情認識をコンテキスト認識する学習アルゴリズムである。
心理学からフレーゲの文脈原理に動機づけられた我々のアプローチは、感情認識のための文脈の3つの解釈を組み合わせたものである。
平均精度 (AP) スコアは26クラスで35.48であり, 従来の手法よりも7-8の改善が見られた。
論文 参考訳(メタデータ) (2020-03-14T19:55:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。