論文の概要: Leveraging Sentiment Analysis Knowledge to Solve Emotion Detection Tasks
- arxiv url: http://arxiv.org/abs/2111.03715v1
- Date: Fri, 5 Nov 2021 20:06:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-11 06:14:33.585247
- Title: Leveraging Sentiment Analysis Knowledge to Solve Emotion Detection Tasks
- Title(参考訳): 感情検出課題解決のための知覚分析知識の活用
- Authors: Maude Nguyen-The, Guillaume-Alexandre Bilodeau and Jan Rockemann
- Abstract要約: 本稿では,大規模データセット上での感情検出タスクを改善するために,適応層を融合したトランスフォーマーモデルを提案する。
また,CMU-MOSEIの感情認識には,テキストモダリティのみを用いながら,最先端の結果が得られた。
- 参考スコア(独自算出の注目度): 11.928873764689458
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Identifying and understanding underlying sentiment or emotions in text is a
key component of multiple natural language processing applications. While
simple polarity sentiment analysis is a well-studied subject, fewer advances
have been made in identifying more complex, finer-grained emotions using only
textual data. In this paper, we present a Transformer-based model with a Fusion
of Adapter layers which leverages knowledge from more simple sentiment analysis
tasks to improve the emotion detection task on large scale dataset, such as
CMU-MOSEI, using the textual modality only. Results show that our proposed
method is competitive with other approaches. We obtained state-of-the-art
results for emotion recognition on CMU-MOSEI even while using only the textual
modality.
- Abstract(参考訳): テキスト中の感情や感情を識別し理解することは、複数の自然言語処理アプリケーションにおいて重要なコンポーネントである。
単純な極性感情分析はよく研究されている対象であるが、テキストデータのみを用いてより複雑できめ細かい感情を特定するための進歩は少ない。
本稿では,CMU-MOSEIのような大規模データセットにおける感情検出タスクを改善するために,より単純な感情分析タスクからの知識を活用し,適応層を融合したトランスフォーマーモデルを提案する。
提案手法は他の手法と競合することを示す。
CMU-MOSEIの感情認識には,テキストのモダリティのみを用いながら,現状の成果を得た。
関連論文リスト
- WisdoM: Improving Multimodal Sentiment Analysis by Fusing Contextual
World Knowledge [73.76722241704488]
大規模視覚言語モデル(LVLM)から引き起こされる文脈的世界知識を利用してマルチモーダル感情分析を行うプラグインフレームワークWisdoMを提案する。
我々の手法は、いくつかの最先端手法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2024-01-12T16:08:07Z) - Implementation of AI Deep Learning Algorithm For Multi-Modal Sentiment
Analysis [0.9065034043031668]
2チャンネル畳み込みニューラルネットワークとリングネットワークを組み合わせることで,マルチモーダル感情認識手法を確立した。
単語はGloVeでベクトル化され、ワードベクトルは畳み込みニューラルネットワークに入力される。
論文 参考訳(メタデータ) (2023-11-19T05:49:39Z) - ESTextSpotter: Towards Better Scene Text Spotting with Explicit Synergy
in Transformer [88.61312640540902]
明示的な構文に基づくテキストスポッティング変換フレームワーク(ESTextSpotter)を紹介する。
本モデルは,1つのデコーダ内におけるテキスト検出と認識のための識別的,インタラクティブな特徴をモデル化することにより,明示的な相乗効果を実現する。
実験結果から,本モデルが従来の最先端手法よりも有意に優れていたことが示唆された。
論文 参考訳(メタデータ) (2023-08-20T03:22:23Z) - An Empirical Study and Improvement for Speech Emotion Recognition [22.250228893114066]
マルチモーダル音声の感情認識は、音声とテキストから話者の感情を検出することを目的としている。
本研究では、音声とテキストのモダリティ情報を融合する方法という、シンプルながら重要な問題について考察する。
実験により,本手法はIEMOCAPデータセット上で得られた新しい最先端結果を示す。
論文 参考訳(メタデータ) (2023-04-08T03:24:06Z) - REDAffectiveLM: Leveraging Affect Enriched Embedding and
Transformer-based Neural Language Model for Readers' Emotion Detection [3.6678641723285446]
本稿では,REDAffectiveLMと呼ばれる深層学習モデルを用いて,短文文書からの読み手感情検出のための新しい手法を提案する。
コンテクストに特化してリッチ表現に影響を与え, リッチBi-LSTM+Attentionに影響を及ぼすタンデムにおいて, トランスフォーマーに基づく事前学習言語モデルを用いることで, リッチ表現に影響を及ぼす。
論文 参考訳(メタデータ) (2023-01-21T19:28:25Z) - Improving Visual-textual Sentiment Analysis by Fusing Expert Features [72.06263228104709]
本稿では,強力な専門家による視覚的特徴を導入することにより,視覚的・テキスト的感情分析を改善する手法を提案する。
提案手法は,(1)感情分析のためのデータから直接特徴を学習する視覚テキストブランチ,(2)事前学習した「エキスパート」エンコーダのセットを持つ視覚専門家ブランチ,(3)視覚テキスト特徴を暗黙的に融合して感情予測を行うCLIPブランチの4つの部分から構成される。
論文 参考訳(メタデータ) (2022-11-23T14:40:51Z) - Hybrid Fusion Based Interpretable Multimodal Emotion Recognition with
Limited Labelled Data [23.211531926226524]
VISTA Netは、早期融合と後期融合のハイブリッドを用いて、画像、音声、テキストのモダリティから情報を融合する。
KAAP技術は、特定の感情のクラスを予測するために、各モダリティとそれに対応する特徴の寄与を計算する。
VISTAネットは、IIT-R MMEmoRecデータセット上で95.99%の感情認識精度を得た。
論文 参考訳(メタデータ) (2022-08-24T11:35:51Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - EmoDNN: Understanding emotions from short texts through a deep neural
network ensemble [2.459874436804819]
本稿では,短い内容から潜伏した個々の側面を推定する枠組みを提案する。
また,テキストコンテキストから感情を抽出する動的ドロップアウト共振器を備えた新しいアンサンブル分類器を提案する。
提案モデルでは,ノイズのある内容から感情を認識する上で,高い性能を実現することができる。
論文 参考訳(メタデータ) (2021-06-03T09:17:34Z) - Target Guided Emotion Aware Chat Machine [58.8346820846765]
意味レベルと感情レベルにおける投稿に対する応答の整合性は、人間のような対話を提供する対話システムにとって不可欠である。
この記事では、投稿中のセマンティクスと感情を同時にエンコードできる、未定義のエンドツーエンドニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2020-11-15T01:55:37Z) - A Deep Neural Framework for Contextual Affect Detection [51.378225388679425]
感情を持たない短い単純なテキストは、その文脈と共に読むときに強い感情を表現することができる。
文中の単語の相互依存を学習する文脈影響検出フレームワークを提案する。
論文 参考訳(メタデータ) (2020-01-28T05:03:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。