論文の概要: DeepEmotex: Classifying Emotion in Text Messages using Deep Transfer
Learning
- arxiv url: http://arxiv.org/abs/2206.06775v1
- Date: Sun, 12 Jun 2022 03:23:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-15 15:34:11.257221
- Title: DeepEmotex: Classifying Emotion in Text Messages using Deep Transfer
Learning
- Title(参考訳): deepemotex:deep transfer learningを用いたテキストメッセージの感情分類
- Authors: Maryam Hasan, Elke Rundensteiner, Emmanuel Agu
- Abstract要約: テキスト中の感情を検出する効果的なシーケンシャルトランスファー学習法としてDeepEmotexを提案する。
キュレートされたTwitterデータセットとベンチマークデータセットの両方を用いて実験を行った。
DeepEmotexモデルは、テストデータセット上でのマルチクラスの感情分類において91%以上の精度を達成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transfer learning has been widely used in natural language processing through
deep pretrained language models, such as Bidirectional Encoder Representations
from Transformers and Universal Sentence Encoder. Despite the great success,
language models get overfitted when applied to small datasets and are prone to
forgetting when fine-tuned with a classifier. To remedy this problem of
forgetting in transferring deep pretrained language models from one domain to
another domain, existing efforts explore fine-tuning methods to forget less. We
propose DeepEmotex an effective sequential transfer learning method to detect
emotion in text. To avoid forgetting problem, the fine-tuning step is
instrumented by a large amount of emotion-labeled data collected from Twitter.
We conduct an experimental study using both curated Twitter data sets and
benchmark data sets. DeepEmotex models achieve over 91% accuracy for
multi-class emotion classification on test dataset. We evaluate the performance
of the fine-tuned DeepEmotex models in classifying emotion in EmoInt and
Stimulus benchmark datasets. The models correctly classify emotion in 73% of
the instances in the benchmark datasets. The proposed DeepEmotex-BERT model
outperforms Bi-LSTM result on the benchmark datasets by 23%. We also study the
effect of the size of the fine-tuning dataset on the accuracy of our models.
Our evaluation results show that fine-tuning with a large set of
emotion-labeled data improves both the robustness and effectiveness of the
resulting target task model.
- Abstract(参考訳): トランスファーラーニングは、トランスフォーマーからの双方向エンコーダ表現やユニバーサルセンテンスエンコーダのような、事前訓練された言語モデルを通じて自然言語処理に広く用いられている。
大きな成功にもかかわらず、小さなデータセットに適用すると言語モデルは過度に適合し、分類器で微調整すると忘れがちである。
事前学習された言語モデルをあるドメインから別のドメインに移す際に忘れてしまうこの問題を解決するため、既存の取り組みは、忘れないように微調整する方法を探求している。
テキスト中の感情を検出するために,deepemotexは効果的なシーケンシャル転送学習手法を提案する。
忘れられる問題を避けるために、微調整ステップは、twitterから収集された大量の感情ラベルデータによって計測される。
我々はtwitterデータセットとベンチマークデータセットの両方を用いて実験研究を行っている。
deepemotexモデルは、テストデータセットにおけるマルチクラス感情分類の91%以上の精度を達成している。
EmoIntおよびStimulusベンチマークデータセットの感情分類における微調整DeepEmotexモデルの性能を評価する。
モデルは、ベンチマークデータセットのインスタンスの73%で感情を正しく分類する。
提案したDeepEmotex-BERTモデルは、ベンチマークデータセットのBi-LSTM結果よりも23%優れています。
また,細調整データセットのサイズがモデルの精度に及ぼす影響についても検討した。
評価の結果,大量の感情ラベル付きデータを用いた微調整により,目標タスクモデルの堅牢性と有効性が向上することがわかった。
関連論文リスト
- Emotion Detection in Reddit: Comparative Study of Machine Learning and Deep Learning Techniques [0.0]
本研究は,GoEmotionsデータセットを利用したテキストによる感情検出に焦点を当てた。
このタスクには、6つの機械学習モデル、3つのアンサンブルモデル、Long Short-Term Memory(LSTM)モデルなど、さまざまなモデルを使用しました。
結果は、Stacking分類器が他のモデルよりも精度と性能が優れていることを示している。
論文 参考訳(メタデータ) (2024-11-15T16:28:25Z) - How Hard is this Test Set? NLI Characterization by Exploiting Training Dynamics [49.9329723199239]
本稿では, 実例と非実例を手作業で構築することなく, 挑戦的なテストセットを自動生成する手法を提案する。
一般的なNLIデータセットのテストセットを,トレーニングダイナミクスを利用した3つの難易度に分類する。
我々の評価法がトレーニングセットに適用された場合、トレーニング対象データのごく一部でトレーニングされたモデルは、フルデータセットでトレーニングされたモデルに匹敵するパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-10-04T13:39:21Z) - Improving Sampling Methods for Fine-tuning SentenceBERT in Text Streams [49.3179290313959]
本研究では,選択的な微調整言語モデルの設計した7つのテキストサンプリング手法の有効性について検討した。
これらの手法がSBERTモデルの微調整に与える影響を, 4つの異なる損失関数を用いて正確に評価する。
その結果,テキストストリームの分類にはソフトマックスの損失とバッチ・オール・トリプレットの損失が特に有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-18T23:41:52Z) - LESS: Selecting Influential Data for Targeted Instruction Tuning [64.78894228923619]
本稿では,データの影響を推定し,命令データ選択のための低ランクグレーディエント類似度探索を行うアルゴリズムであるLESSを提案する。
LESS選択したデータの5%のトレーニングは、さまざまなダウンストリームタスクにわたる完全なデータセットでのトレーニングよりも優れています。
我々の方法は、意図した下流アプリケーションに必要な推論スキルを識別するために、表面的なフォームキューを超えています。
論文 参考訳(メタデータ) (2024-02-06T19:18:04Z) - Enhancing Sentiment Analysis Results through Outlier Detection
Optimization [0.5439020425819]
本研究では,主観的ラベル付きテキストデータにおける外れ値の同定と対処の可能性について検討する。
本研究では,1クラス分類法であるDeep SVDDアルゴリズムを用いて,9つのテキストベース感情と感情分析データセットの外れ値を検出する。
論文 参考訳(メタデータ) (2023-11-25T18:20:43Z) - Adapted Multimodal BERT with Layer-wise Fusion for Sentiment Analysis [84.12658971655253]
本稿では,マルチモーダルタスクのためのBERTベースのアーキテクチャであるAdapted Multimodal BERTを提案する。
アダプタはタスクの事前訓練された言語モデルを手動で調整し、融合層はタスク固有の層ワイドな音声視覚情報とテキストBERT表現を融合させる。
われわれは、このアプローチがより効率的なモデルにつながり、微調整されたモデルよりも優れ、ノイズの入力に堅牢であることを示した。
論文 参考訳(メタデータ) (2022-12-01T17:31:42Z) - A Comparative Study of Data Augmentation Techniques for Deep Learning
Based Emotion Recognition [11.928873764689458]
感情認識のための一般的なディープラーニングアプローチを包括的に評価する。
音声信号の長距離依存性が感情認識に重要であることを示す。
スピード/レート向上は、モデル間で最も堅牢なパフォーマンス向上を提供する。
論文 参考訳(メタデータ) (2022-11-09T17:27:03Z) - Fortunately, Discourse Markers Can Enhance Language Models for Sentiment
Analysis [13.149482582098429]
本稿では、感情伝達型談話マーカーを利用して、大規模に弱いラベル付きデータを生成することを提案する。
ファイナンスドメインを含むさまざまなベンチマークデータセットにアプローチの価値を示す。
論文 参考訳(メタデータ) (2022-01-06T12:33:47Z) - Offensive Language and Hate Speech Detection with Deep Learning and
Transfer Learning [1.77356577919977]
我々は、ツイートを自動的に3つのクラスに分類するアプローチを提案する。
我々は、テキスト分類、感情チェック、テキストデータ拡張を含む主要な機能を含むクラスモジュールを作成する。
論文 参考訳(メタデータ) (2021-08-06T20:59:47Z) - Sentiment analysis in tweets: an assessment study from classical to
modern text representation models [59.107260266206445]
Twitterで公開された短いテキストは、豊富な情報源として大きな注目を集めている。
非公式な言語スタイルや騒々しい言語スタイルといったそれらの固有の特徴は、多くの自然言語処理(NLP)タスクに挑戦し続けている。
本研究では,22データセットの豊富なコレクションを用いて,ツイートに表される感情を識別する既存言語モデルの評価を行った。
論文 参考訳(メタデータ) (2021-05-29T21:05:28Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。