論文の概要: Improving the Generalizability of Text-Based Emotion Detection by
Leveraging Transformers with Psycholinguistic Features
- arxiv url: http://arxiv.org/abs/2212.09465v1
- Date: Mon, 19 Dec 2022 13:58:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 16:37:02.778183
- Title: Improving the Generalizability of Text-Based Emotion Detection by
Leveraging Transformers with Psycholinguistic Features
- Title(参考訳): 心理言語学的特徴を有するトランスフォーマによるテキスト感情検出の一般化性の向上
- Authors: Sourabh Zanwar, Daniel Wiechmann, Yu Qiao, Elma Kerz
- Abstract要約: 本稿では,両方向長短期記憶(BiLSTM)ネットワークと変換器モデル(BERT,RoBERTa)を併用したテキストベースの感情検出手法を提案する。
提案したハイブリッドモデルでは,標準的なトランスフォーマーベースアプローチと比較して,分布外データへの一般化能力の向上が期待できる。
- 参考スコア(独自算出の注目度): 27.799032561722893
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, there has been increased interest in building predictive
models that harness natural language processing and machine learning techniques
to detect emotions from various text sources, including social media posts,
micro-blogs or news articles. Yet, deployment of such models in real-world
sentiment and emotion applications faces challenges, in particular poor
out-of-domain generalizability. This is likely due to domain-specific
differences (e.g., topics, communicative goals, and annotation schemes) that
make transfer between different models of emotion recognition difficult. In
this work we propose approaches for text-based emotion detection that leverage
transformer models (BERT and RoBERTa) in combination with Bidirectional Long
Short-Term Memory (BiLSTM) networks trained on a comprehensive set of
psycholinguistic features. First, we evaluate the performance of our models
within-domain on two benchmark datasets: GoEmotion and ISEAR. Second, we
conduct transfer learning experiments on six datasets from the Unified Emotion
Dataset to evaluate their out-of-domain robustness. We find that the proposed
hybrid models improve the ability to generalize to out-of-distribution data
compared to a standard transformer-based approach. Moreover, we observe that
these models perform competitively on in-domain data.
- Abstract(参考訳): 近年,ソーシャルメディア投稿やマイクロブログ,ニュース記事など,さまざまなテキストソースから感情を検出する自然言語処理や機械学習技術を活用した予測モデルの構築への関心が高まっている。
しかし、そのようなモデルの現実世界の感情や感情アプリケーションへの展開は、特にドメイン外の一般化性の貧弱な問題に直面している。
これは、異なるモデル間の感情認識の伝達を困難にするドメイン固有の違い(トピック、コミュニケーション目標、アノテーションスキームなど)に起因する可能性が高い。
本研究では,両方向長短期記憶(BiLSTM)ネットワークと変換器モデル(BERT,RoBERTa)を併用したテキストベースの感情検出手法を提案する。
まず、ドメイン内モデルのパフォーマンスを2つのベンチマークデータセット(goemotionとisear)で評価します。
次に、Unified Emotion Datasetから得られた6つのデータセットの転送学習実験を行い、ドメイン外ロバスト性を評価する。
提案するハイブリッドモデルは, 標準のトランスフォーマー方式と比較して, 分散データに一般化する能力が向上することがわかった。
さらに、これらのモデルがドメイン内のデータに対して競合的に動作することを観察する。
関連論文リスト
- ASEM: Enhancing Empathy in Chatbot through Attention-based Sentiment and
Emotion Modeling [0.0]
本稿では,ユーザの発話の感情状態について,専門家の混在,複数エンコーダを用いた新たなソリューションを提案する。
本稿では,オープンドメインチャットボットの感情分析に基づいて感情分析を行うASEMというエンド・ツー・エンドのモデルアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-02-25T20:36:51Z) - ESTextSpotter: Towards Better Scene Text Spotting with Explicit Synergy
in Transformer [88.61312640540902]
明示的な構文に基づくテキストスポッティング変換フレームワーク(ESTextSpotter)を紹介する。
本モデルは,1つのデコーダ内におけるテキスト検出と認識のための識別的,インタラクティブな特徴をモデル化することにより,明示的な相乗効果を実現する。
実験結果から,本モデルが従来の最先端手法よりも有意に優れていたことが示唆された。
論文 参考訳(メタデータ) (2023-08-20T03:22:23Z) - Cross-Language Speech Emotion Recognition Using Multimodal Dual
Attention Transformers [5.538923337818467]
最先端のシステムでは、言語間の設定でパフォーマンスが向上することができない。
言語間SERを改善するためのマルチモーダルデュアルアテンショントランスモデルを提案する。
論文 参考訳(メタデータ) (2023-06-23T22:38:32Z) - A Comprehensive Survey on Applications of Transformers for Deep Learning
Tasks [60.38369406877899]
Transformerは、シーケンシャルデータ内のコンテキスト関係を理解するために自己認識メカニズムを使用するディープニューラルネットワークである。
Transformerモデルは、入力シーケンス要素間の長い依存関係を処理し、並列処理を可能にする。
我々の調査では、トランスフォーマーベースのモデルのためのトップ5のアプリケーションドメインを特定します。
論文 参考訳(メタデータ) (2023-06-11T23:13:51Z) - REDAffectiveLM: Leveraging Affect Enriched Embedding and
Transformer-based Neural Language Model for Readers' Emotion Detection [3.6678641723285446]
本稿では,REDAffectiveLMと呼ばれる深層学習モデルを用いて,短文文書からの読み手感情検出のための新しい手法を提案する。
コンテクストに特化してリッチ表現に影響を与え, リッチBi-LSTM+Attentionに影響を及ぼすタンデムにおいて, トランスフォーマーに基づく事前学習言語モデルを用いることで, リッチ表現に影響を及ぼす。
論文 参考訳(メタデータ) (2023-01-21T19:28:25Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - Improving Generation and Evaluation of Visual Stories via Semantic
Consistency [72.00815192668193]
一連の自然言語キャプションが与えられた場合、エージェントはキャプションに対応する一連の画像を生成する必要がある。
それまでの作業では、このタスクで合成テキスト・画像モデルより優れた繰り返し生成モデルを導入してきた。
従来のモデリング手法には、デュアルラーニングフレームワークの追加など、いくつかの改善点を提示する。
論文 参考訳(メタデータ) (2021-05-20T20:42:42Z) - TCL: Transformer-based Dynamic Graph Modelling via Contrastive Learning [87.38675639186405]
我々は,動的に進化するグラフを連続的に扱う,TCLと呼ばれる新しいグラフニューラルネットワークアプローチを提案する。
我々の知る限りでは、これは動的グラフ上の表現学習にコントラスト学習を適用する最初の試みである。
論文 参考訳(メタデータ) (2021-05-17T15:33:25Z) - Modulated Fusion using Transformer for Linguistic-Acoustic Emotion
Recognition [7.799182201815763]
本稿では,感情認識と感情分析のタスクに軽量で強力なソリューションを提供することを目的とする。
我々のモチベーションは、トランスフォーマーと変調に基づく2つのアーキテクチャを提案することである。
論文 参考訳(メタデータ) (2020-10-05T14:46:20Z) - Modality-Transferable Emotion Embeddings for Low-Resource Multimodal
Emotion Recognition [55.44502358463217]
本稿では、上記の問題に対処するため、感情を埋め込んだモダリティ変換可能なモデルを提案する。
我々のモデルは感情カテゴリーのほとんどで最先端のパフォーマンスを達成する。
私たちのモデルは、目に見えない感情に対するゼロショットと少数ショットのシナリオにおいて、既存のベースラインよりも優れています。
論文 参考訳(メタデータ) (2020-09-21T06:10:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。