論文の概要: Fine-Grained Emotion Detection on GoEmotions: Experimental Comparison of Classical Machine Learning, BiLSTM, and Transformer Models
- arxiv url: http://arxiv.org/abs/2601.18162v1
- Date: Mon, 26 Jan 2026 05:29:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.68949
- Title: Fine-Grained Emotion Detection on GoEmotions: Experimental Comparison of Classical Machine Learning, BiLSTM, and Transformer Models
- Title(参考訳): GoEmotions上での微細な感情検出:古典的機械学習, BiLSTM, トランスフォーマーモデルの比較
- Authors: Ani Harutyunyan, Sachin Kumar,
- Abstract要約: 微粒な感情認識はラベル重複とクラス不均衡による多ラベルNLP課題である。
TF-IDFをベースとしたロジスティック回帰システム,注目度の高いBiLSTM,マルチラベル分類のためのBERTモデル,の3つのモデルファミリをベンチマークした。
我々は,ロジスティック回帰が0.51マイクロF1の最高値に達するのに対して,BERTは公式論文の報告結果を上回る総合的なバランスを達成していることを観察した。
- 参考スコア(独自算出の注目度): 4.417564179511245
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Fine-grained emotion recognition is a challenging multi-label NLP task due to label overlap and class imbalance. In this work, we benchmark three modeling families on the GoEmotions dataset: a TF-IDF-based logistic regression system trained with binary relevance, a BiLSTM with attention, and a BERT model fine-tuned for multi-label classification. Experiments follow the official train/validation/test split, and imbalance is mitigated using inverse-frequency class weights. Across several metrics, namely Micro-F1, Macro-F1, Hamming Loss, and Subset Accuracy, we observe that logistic regression attains the highest Micro-F1 of 0.51, while BERT achieves the best overall balance surpassing the official paper's reported results, reaching Macro-F1 0.49, Hamming Loss 0.036, and Subset Accuracy 0.36. This suggests that frequent emotions often rely on surface lexical cues, whereas contextual representations improve performance on rarer emotions and more ambiguous examples.
- Abstract(参考訳): 微粒な感情認識はラベル重複とクラス不均衡による多ラベルNLP課題である。
本稿では,2値関係で学習したTF-IDFに基づくロジスティック回帰システム,注目のBiLSTM,マルチラベル分類のためのBERTモデルという,GoEmotionsデータセット上の3つのモデリングファミリをベンチマークする。
実験は公式の列車/検証/テストの分割に追随し、不均衡は逆周波数のクラスウェイトによって緩和される。
Micro-F1、Macro-F1、Hamming Loss、Subset Accuracyなど、いくつかの指標において、ロジスティック回帰が最も高いMicro-F1は0.51であり、BERTは公式論文の報告結果を上回っ、Macro-F1 0.49、Hamming Loss 0.036、Subset Accuracy 0.36に達する。
このことは、頻繁な感情はしばしば表面的な語彙的手がかりに依存するが、文脈的表現は稀な感情やよりあいまいな例のパフォーマンスを改善することを示唆している。
関連論文リスト
- Based on Data Balancing and Model Improvement for Multi-Label Sentiment Classification Performance Enhancement [5.149011601951617]
マルチラベル感情分類は、一つのテキスト内で複数の感情を検出することによって、自然言語処理において重要な役割を果たす。
GoEmotionsのような既存のデータセットは、しばしば厳しいクラス不均衡に悩まされ、パフォーマンスを損なう。
我々は、GoEmotionsデータ、Sentiment140からの感情ラベル付きサンプル、手作業による注釈付きテキストを用いて、バランスの取れたマルチラベル感情データセットを構築した。
実験結果は、不均衡なデータで訓練されたモデルと比較して、精度、精度、リコール、F1スコア、AUCを大幅に改善した。
論文 参考訳(メタデータ) (2025-11-18T03:06:27Z) - Emotion Detection in Speech Using Lightweight and Transformer-Based Models: A Comparative and Ablation Study [0.41292255339309664]
本稿では,軽量トランスモデルであるDistilHuBERTとPaSSTの比較分析を行う。
MFCC機能を用いた従来のCNN-LSTMベースラインモデルと比較した。
DistilHuBERTは、非常に小さなモデルサイズ(0.02MB)を維持しながら、優れた精度(70.64%)とF1スコア(70.36%)を示す。
論文 参考訳(メタデータ) (2025-11-01T05:01:04Z) - Spatiotemporal EEG-Based Emotion Recognition Using SAM Ratings from Serious Games with Hybrid Deep Learning [19.50016953929723]
本稿では,GAMEEMOデータセット上に構築された多粒度脳波感情分類フレームワークを提案する。
我々のパイプラインは、時間的ウィンドウ分割、ハイブリッド統計および周波数領域特徴抽出、zスコア正規化を含む構造化前処理戦略を採用している。
我々は、LSTM、LSTM-GRU、CNN-LSTMなどの深層ニューラルネットワークとともに、ランダムフォレスト、XGBoost、SVMを含む幅広いモデルを評価する。
論文 参考訳(メタデータ) (2025-08-28T08:25:19Z) - Addressing Data Imbalance in Transformer-Based Multi-Label Emotion Detection with Weighted Loss [0.7614628596146602]
本稿では,マルチラベル感情検出のためのトランスフォーマーモデルへの単純な重み付き損失関数の適用について検討する。
BRIGHTERデータセット上でBERT,RoBERTa,BARTを評価し,マイクロF1,マクロF1,ROC-AUC,精度,ジャカード類似度係数などの評価指標を用いて評価を行った。
その結果、重み付き損失関数は高頻度感情クラスの性能を向上させるが、マイノリティクラスに限られた影響を示すことが示された。
論文 参考訳(メタデータ) (2025-07-15T14:53:33Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Pre-training Language Model as a Multi-perspective Course Learner [103.17674402415582]
本研究では,サンプル効率のよい事前学習のためのマルチパースペクティブ・コース・ラーニング(MCL)手法を提案する。
本研究では,3つの自己超越コースが,「綱引き」力学の固有の欠陥を軽減するように設計されている。
本手法は,GLUEおよびSQuAD 2.0ベンチマークにおいて,ELECTRAの平均性能をそれぞれ2.8%,絶対点を3.2%向上させる。
論文 参考訳(メタデータ) (2023-05-06T09:02:10Z) - The Lazy Neuron Phenomenon: On Emergence of Activation Sparsity in
Transformers [59.87030906486969]
本稿では,Transformer アーキテクチャを用いた機械学習モデルにおいて,アクティベーションマップが疎いという興味深い現象について考察する。
本稿では, 自然言語処理と視覚処理の両方において, スパーシリティが顕著な現象であることを示す。
本稿では,変換器のFLOP数を大幅に削減し,効率を向上する手法について論じる。
論文 参考訳(メタデータ) (2022-10-12T15:25:19Z) - Sparse Conditional Hidden Markov Model for Weakly Supervised Named
Entity Recognition [68.68300358332156]
雑音ラベリング機能を評価するために,スパース条件付き隠れマルコフモデル(Sparse-CHMM)を提案する。
Sparse-CHMMは、3段階のトレーニングパイプラインで教師なし学習によって最適化される。
5つの包括的なデータセットで平均F1スコアが3.01向上する。
論文 参考訳(メタデータ) (2022-05-27T20:47:30Z) - PLM: Partial Label Masking for Imbalanced Multi-label Classification [59.68444804243782]
長いラベルの分布を持つ実世界のデータセットで訓練されたニューラルネットワークは、頻繁なクラスに偏りがあり、頻繁なクラスでは不十分である。
本稿では,この比率を利用したPLM(Partial Label Masking)を提案する。
本手法は,マルチラベル (MultiMNIST と MSCOCO) とシングルラベル (CIFAR-10 と CIFAR-100) の2つの画像分類データセットにおいて,既存の手法と比較して高い性能を実現する。
論文 参考訳(メタデータ) (2021-05-22T18:07:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。