論文の概要: Exploring Transformers in Emotion Recognition: a comparison of BERT,
DistillBERT, RoBERTa, XLNet and ELECTRA
- arxiv url: http://arxiv.org/abs/2104.02041v1
- Date: Mon, 5 Apr 2021 17:46:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-06 16:14:22.231992
- Title: Exploring Transformers in Emotion Recognition: a comparison of BERT,
DistillBERT, RoBERTa, XLNet and ELECTRA
- Title(参考訳): 感情認識におけるトランスフォーマーの探索:BERT, DistillBERT, RoBERTa, XLNet, ELECTRAの比較
- Authors: Diogo Cortiz
- Abstract要約: 本稿では,自然言語理解(NLU)の感情認識への応用について検討する。
微粒な感情データセットを用いて異なる言語モデルを微調整し,その性能評価を行った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper investigates how Natural Language Understanding (NLU) could be
applied in Emotion Recognition, a specific task in affective computing. We
finetuned different transformers language models (BERT, DistilBERT, RoBERTa,
XLNet, and ELECTRA) using a fine-grained emotion dataset and evaluating them in
terms of performance (f1-score) and time to complete.
- Abstract(参考訳): 本稿では,感情認識において自然言語理解(NLU)をどのように適用できるかを検討する。
異なるトランスフォーマー言語モデル(BERT, DistilBERT, RoBERTa, XLNet, ELECTRA)を微細な感情データセットを用いて微調整し, 性能(f1スコア)と完成までの時間で評価した。
関連論文リスト
- Emotion Detection with Transformers: A Comparative Study [0.0]
我々は、異なる変圧器の変種を用いて、感情データセットを用いて、事前訓練されたトランスフォーマーモデルを訓練し、評価する。
解析の結果,句読解や停止語といった一般的な手法は,モデルの性能を損なうことが判明した。
論文 参考訳(メタデータ) (2024-03-18T23:22:50Z) - Leveraging the power of transformers for guilt detection in text [50.65526700061155]
本研究は,テキスト中の罪悪感を検出するための3つのトランスフォーマーベース言語モデルの適用性について検討する。
提案モデルでは,BERTとRoBERTaをそれぞれ2点,RoBERTaを1点で比較した。
論文 参考訳(メタデータ) (2024-01-15T01:40:39Z) - Transformer-based approaches to Sentiment Detection [55.41644538483948]
テキスト分類のための4種類の最先端変圧器モデルの性能について検討した。
RoBERTa変換モデルは82.6%のスコアでテストデータセット上で最高のパフォーマンスを示し、品質予測に非常に推奨されている。
論文 参考訳(メタデータ) (2023-03-13T17:12:03Z) - Improving the Generalizability of Text-Based Emotion Detection by
Leveraging Transformers with Psycholinguistic Features [27.799032561722893]
本稿では,両方向長短期記憶(BiLSTM)ネットワークと変換器モデル(BERT,RoBERTa)を併用したテキストベースの感情検出手法を提案する。
提案したハイブリッドモデルでは,標準的なトランスフォーマーベースアプローチと比較して,分布外データへの一般化能力の向上が期待できる。
論文 参考訳(メタデータ) (2022-12-19T13:58:48Z) - Emotion Detection From Tweets Using a BERT and SVM Ensemble Model [0.0]
本稿では,感情認識のための支援ベクトルマシンとトランスフォーマーからの双方向表現について検討する。
2つのBERTモデルとSVMモデルを組み合わせた新しいアンサンブルモデルを提案する。
実験の結果,提案モデルでは,ツイート中の感情認識の精度が0.91であることがわかった。
論文 参考訳(メタデータ) (2022-08-09T05:32:29Z) - XDBERT: Distilling Visual Information to BERT from Cross-Modal Systems
to Improve Language Understanding [73.24847320536813]
本研究では,事前学習したマルチモーダル変換器から事前学習した言語エンコーダへの視覚情報の蒸留について検討する。
我々のフレームワークは,NLUの言語重み特性に適応するために学習目標を変更する一方で,視覚言語タスクにおけるクロスモーダルエンコーダの成功にインスパイアされている。
論文 参考訳(メタデータ) (2022-04-15T03:44:00Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - FBERT: A Neural Transformer for Identifying Offensive Content [67.12838911384024]
fBERTは、SOLIDで再訓練されたBERTモデルである。
複数の英文データセット上での攻撃的内容の同定におけるfBERTの性能を評価し、SOLIDからインスタンスを選択するためのしきい値をテストする。
fBERTモデルは、コミュニティで自由に利用できるようになる。
論文 参考訳(メタデータ) (2021-09-10T19:19:26Z) - Towards Emotion Recognition in Hindi-English Code-Mixed Data: A
Transformer Based Approach [0.0]
感情検出のためのラベル付きhinglishデータセットを提案する。
ヒンディー語と英語の混成ツイートの感情を検出するための深層学習に基づくアプローチに注目した。
論文 参考訳(メタデータ) (2021-02-19T14:07:20Z) - HeBERT & HebEMO: a Hebrew BERT Model and a Tool for Polarity Analysis
and Emotion Recognition [0.30458514384586394]
HeBERTは現代ヘブライ語テキストのトランスフォーマーベースのモデルである。
HebEMOはHeBERTを使って極性を検出し、Hebrewのユーザ生成コンテンツから感情を抽出するツールだ。
論文 参考訳(メタデータ) (2021-02-03T06:59:59Z) - VisBERT: Hidden-State Visualizations for Transformers [66.86452388524886]
VisBERTは,複数の質問応答のタスクに対して,BERT内のコンテキストトークン表現を可視化するツールである。
VisBERTは、モデルの内部状態に関する洞察を得て、推論ステップや潜在的な欠点を探索することを可能にする。
論文 参考訳(メタデータ) (2020-11-09T15:37:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。