論文の概要: Improving the Generalizability of Text-Based Emotion Detection by
Leveraging Transformers with Psycholinguistic Features
- arxiv url: http://arxiv.org/abs/2212.09465v1
- Date: Mon, 19 Dec 2022 13:58:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 16:37:02.778183
- Title: Improving the Generalizability of Text-Based Emotion Detection by
Leveraging Transformers with Psycholinguistic Features
- Title(参考訳): 心理言語学的特徴を有するトランスフォーマによるテキスト感情検出の一般化性の向上
- Authors: Sourabh Zanwar, Daniel Wiechmann, Yu Qiao, Elma Kerz
- Abstract要約: 本稿では,両方向長短期記憶(BiLSTM)ネットワークと変換器モデル(BERT,RoBERTa)を併用したテキストベースの感情検出手法を提案する。
提案したハイブリッドモデルでは,標準的なトランスフォーマーベースアプローチと比較して,分布外データへの一般化能力の向上が期待できる。
- 参考スコア(独自算出の注目度): 27.799032561722893
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, there has been increased interest in building predictive
models that harness natural language processing and machine learning techniques
to detect emotions from various text sources, including social media posts,
micro-blogs or news articles. Yet, deployment of such models in real-world
sentiment and emotion applications faces challenges, in particular poor
out-of-domain generalizability. This is likely due to domain-specific
differences (e.g., topics, communicative goals, and annotation schemes) that
make transfer between different models of emotion recognition difficult. In
this work we propose approaches for text-based emotion detection that leverage
transformer models (BERT and RoBERTa) in combination with Bidirectional Long
Short-Term Memory (BiLSTM) networks trained on a comprehensive set of
psycholinguistic features. First, we evaluate the performance of our models
within-domain on two benchmark datasets: GoEmotion and ISEAR. Second, we
conduct transfer learning experiments on six datasets from the Unified Emotion
Dataset to evaluate their out-of-domain robustness. We find that the proposed
hybrid models improve the ability to generalize to out-of-distribution data
compared to a standard transformer-based approach. Moreover, we observe that
these models perform competitively on in-domain data.
- Abstract(参考訳): 近年,ソーシャルメディア投稿やマイクロブログ,ニュース記事など,さまざまなテキストソースから感情を検出する自然言語処理や機械学習技術を活用した予測モデルの構築への関心が高まっている。
しかし、そのようなモデルの現実世界の感情や感情アプリケーションへの展開は、特にドメイン外の一般化性の貧弱な問題に直面している。
これは、異なるモデル間の感情認識の伝達を困難にするドメイン固有の違い(トピック、コミュニケーション目標、アノテーションスキームなど)に起因する可能性が高い。
本研究では,両方向長短期記憶(BiLSTM)ネットワークと変換器モデル(BERT,RoBERTa)を併用したテキストベースの感情検出手法を提案する。
まず、ドメイン内モデルのパフォーマンスを2つのベンチマークデータセット(goemotionとisear)で評価します。
次に、Unified Emotion Datasetから得られた6つのデータセットの転送学習実験を行い、ドメイン外ロバスト性を評価する。
提案するハイブリッドモデルは, 標準のトランスフォーマー方式と比較して, 分散データに一般化する能力が向上することがわかった。
さらに、これらのモデルがドメイン内のデータに対して競合的に動作することを観察する。
関連論文リスト
- MEMO-Bench: A Multiple Benchmark for Text-to-Image and Multimodal Large Language Models on Human Emotion Analysis [53.012111671763776]
そこで本研究では、7,145枚の肖像画からなる総合的なベンチマークであるMEMO-Benchを紹介した。
以上の結果から,既存のT2Iモデルは負のモデルよりも肯定的な感情を生成するのに効果的であることが示唆された。
MLLMは人間の感情の識別と認識に一定の効果を示すが、人間のレベルの正確さには欠ける。
論文 参考訳(メタデータ) (2024-11-18T02:09:48Z) - Detecting Machine-Generated Long-Form Content with Latent-Space Variables [54.07946647012579]
既存のゼロショット検出器は主に、現実世界のドメインシフトに弱いトークンレベルの分布に焦点を当てている。
本稿では,イベント遷移などの抽象的要素を機械対人文検出の鍵となる要因として組み込んだ,より堅牢な手法を提案する。
論文 参考訳(メタデータ) (2024-10-04T18:42:09Z) - Evaluating the Efficacy of AI Techniques in Textual Anonymization: A Comparative Study [5.962542204378336]
本研究では、条件付きランダムフィールド(CRF)、Long Short-Term Memory(LSTM)、Embedddings from Language Models(ELMo)、Transformersアーキテクチャに焦点を当てたテキスト匿名化手法に焦点を当てた。
CRF, LSTM, ELMoは, 従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2024-05-09T11:29:25Z) - ASEM: Enhancing Empathy in Chatbot through Attention-based Sentiment and
Emotion Modeling [0.0]
本稿では,ユーザの発話の感情状態について,専門家の混在,複数エンコーダを用いた新たなソリューションを提案する。
本稿では,オープンドメインチャットボットの感情分析に基づいて感情分析を行うASEMというエンド・ツー・エンドのモデルアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-02-25T20:36:51Z) - Cross-Language Speech Emotion Recognition Using Multimodal Dual
Attention Transformers [5.538923337818467]
最先端のシステムでは、言語間の設定でパフォーマンスが向上することができない。
言語間SERを改善するためのマルチモーダルデュアルアテンショントランスモデルを提案する。
論文 参考訳(メタデータ) (2023-06-23T22:38:32Z) - A Comprehensive Survey on Applications of Transformers for Deep Learning
Tasks [60.38369406877899]
Transformerは、シーケンシャルデータ内のコンテキスト関係を理解するために自己認識メカニズムを使用するディープニューラルネットワークである。
Transformerモデルは、入力シーケンス要素間の長い依存関係を処理し、並列処理を可能にする。
我々の調査では、トランスフォーマーベースのモデルのためのトップ5のアプリケーションドメインを特定します。
論文 参考訳(メタデータ) (2023-06-11T23:13:51Z) - Transferring Foundation Models for Generalizable Robotic Manipulation [82.12754319808197]
インターネット規模の基盤モデルによって生成された言語推論セグメンテーションマスクを効果的に活用する新しいパラダイムを提案する。
提案手法は,オブジェクトのポーズを効果的かつ堅牢に知覚し,サンプル効率のよい一般化学習を可能にする。
デモは提出されたビデオで見ることができ、より包括的なデモはlink1またはlink2で見ることができます。
論文 参考訳(メタデータ) (2023-06-09T07:22:12Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - Modulated Fusion using Transformer for Linguistic-Acoustic Emotion
Recognition [7.799182201815763]
本稿では,感情認識と感情分析のタスクに軽量で強力なソリューションを提供することを目的とする。
我々のモチベーションは、トランスフォーマーと変調に基づく2つのアーキテクチャを提案することである。
論文 参考訳(メタデータ) (2020-10-05T14:46:20Z) - Modality-Transferable Emotion Embeddings for Low-Resource Multimodal
Emotion Recognition [55.44502358463217]
本稿では、上記の問題に対処するため、感情を埋め込んだモダリティ変換可能なモデルを提案する。
我々のモデルは感情カテゴリーのほとんどで最先端のパフォーマンスを達成する。
私たちのモデルは、目に見えない感情に対するゼロショットと少数ショットのシナリオにおいて、既存のベースラインよりも優れています。
論文 参考訳(メタデータ) (2020-09-21T06:10:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。