論文の概要: Leveraging Label Correlations in a Multi-label Setting: A Case Study in
Emotion
- arxiv url: http://arxiv.org/abs/2210.15842v1
- Date: Fri, 28 Oct 2022 02:27:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 15:06:19.340362
- Title: Leveraging Label Correlations in a Multi-label Setting: A Case Study in
Emotion
- Title(参考訳): 複数ラベル設定におけるラベル相関の活用:感情のケーススタディ
- Authors: Georgios Chochlakis (1 and 2), Gireesh Mahajan (3), Sabyasachee Baruah
(1 and 2), Keith Burghardt (2), Kristina Lerman (2), Shrikanth Narayanan (1
and 2) ((1) Signal Analysis and Interpretation Lab, University of Southern
California, (2) Information Science Institute, University of Southern
California, (3) Microsoft Cognitive Services)
- Abstract要約: マルチラベル感情認識モデルにおけるラベル相関を利用して感情検出を改善する。
単言語BERTモデルを用いたSemEval 2018 Task 1 E-cにおいて、スペイン語、英語、アラビア語で最先端のパフォーマンスを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Detecting emotions expressed in text has become critical to a range of
fields. In this work, we investigate ways to exploit label correlations in
multi-label emotion recognition models to improve emotion detection. First, we
develop two modeling approaches to the problem in order to capture word
associations of the emotion words themselves, by either including the emotions
in the input, or by leveraging Masked Language Modeling (MLM). Second, we
integrate pairwise constraints of emotion representations as regularization
terms alongside the classification loss of the models. We split these terms
into two categories, local and global. The former dynamically change based on
the gold labels, while the latter remain static during training. We demonstrate
state-of-the-art performance across Spanish, English, and Arabic in SemEval
2018 Task 1 E-c using monolingual BERT-based models. On top of better
performance, we also demonstrate improved robustness. Code is available at
https://github.com/gchochla/Demux-MEmo.
- Abstract(参考訳): テキストで表現された感情の検出は、様々な分野において重要になっている。
本研究では,マルチラベル感情認識モデルにおけるラベル相関を利用して感情検出を改善する方法を検討する。
まず,入力中の感情を含むか,あるいはマスク言語モデル(mlm)を活用することにより,感情語自体の単語関係を捉えるために,この問題に対する2つのモデリング手法を開発した。
第2に,感情表現のペアワイズ制約を,モデルの分類損失と並行して正規化項として統合する。
これらの用語をローカルとグローバルの2つのカテゴリに分けました。
前者はゴールドレーベルに基づいて動的に変化し、後者はトレーニング中に静止している。
単言語BERTモデルを用いたSemEval 2018 Task 1 E-cにおいて、スペイン語、英語、アラビア語で最先端のパフォーマンスを示す。
パフォーマンスの向上に加えて、堅牢性の向上も示しています。
コードはhttps://github.com/gchochla/demux-memoで入手できる。
関連論文リスト
- Emotion Rendering for Conversational Speech Synthesis with Heterogeneous
Graph-Based Context Modeling [50.99252242917458]
会話音声合成(CSS)は,会話環境の中で適切な韻律と感情のインフレクションで発話を正確に表現することを目的としている。
データ不足の問題に対処するため、私たちはカテゴリと強度の点で感情的なラベルを慎重に作成します。
我々のモデルは感情の理解と表現においてベースラインモデルよりも優れています。
論文 参考訳(メタデータ) (2023-12-19T08:47:50Z) - Language Models (Mostly) Do Not Consider Emotion Triggers When Predicting Emotion [87.18073195745914]
人間の感情が感情の予測において有意であると考えられる特徴とどのように相関するかを検討する。
EmoTriggerを用いて、感情のトリガーを識別する大規模言語モデルの能力を評価する。
分析の結果、感情のトリガーは感情予測モデルにとって健全な特徴ではなく、様々な特徴と感情検出のタスクの間に複雑な相互作用があることが判明した。
論文 参考訳(メタデータ) (2023-11-16T06:20:13Z) - Using Emotion Embeddings to Transfer Knowledge Between Emotions,
Languages, and Annotation Formats [0.0]
私たちは、異なる構成間で移行可能な単一のモデルを構築する方法を示します。
Demuxはゼロショット方式で知識を新しい言語に同時に転送できることを示す。
論文 参考訳(メタデータ) (2022-10-31T22:32:36Z) - Unifying the Discrete and Continuous Emotion labels for Speech Emotion
Recognition [28.881092401807894]
音声からの感情検出のためのパラ言語分析では、感情は離散的または次元的(連続的な評価)ラベルと同一視されている。
本研究では,連続的感情特性と離散的感情特性を共同で予測するモデルを提案する。
論文 参考訳(メタデータ) (2022-10-29T16:12:31Z) - MAFW: A Large-scale, Multi-modal, Compound Affective Database for
Dynamic Facial Expression Recognition in the Wild [56.61912265155151]
大規模複合感情データベースMAFWを提案する。
各クリップには、複雑な感情カテゴリーと、クリップ内の被験者の感情行動を記述する2つの文が注釈付けされている。
複合感情のアノテーションでは、それぞれのクリップは、怒り、嫌悪感、恐怖、幸福、中立、悲しみ、驚き、軽蔑、不安、無力感、失望など、広く使われている11の感情のうちの1つ以上に分類される。
論文 参考訳(メタデータ) (2022-08-01T13:34:33Z) - Chat-Capsule: A Hierarchical Capsule for Dialog-level Emotion Analysis [70.98130990040228]
本稿では,発話レベルと対話レベルの両方の感情とその相互関係をモデル化したコンテキストベースの階層的注意カプセル(Chat-Capsule)モデルを提案する。
Eコマースプラットフォームの顧客サポートから収集したダイアログデータセットでは,ユーザの満足度や感情曲線のカテゴリも予測できる。
論文 参考訳(メタデータ) (2022-03-23T08:04:30Z) - MEmoBERT: Pre-training Model with Prompt-based Learning for Multimodal
Emotion Recognition [118.73025093045652]
マルチモーダル感情認識のための事前学習モデル textbfMEmoBERT を提案する。
従来の「訓練前、微妙な」パラダイムとは異なり、下流の感情分類タスクをマスク付きテキスト予測として再構成するプロンプトベースの手法を提案する。
提案するMEMOBERTは感情認識性能を大幅に向上させる。
論文 参考訳(メタデータ) (2021-10-27T09:57:00Z) - Multimodal Emotion Recognition with High-level Speech and Text Features [8.141157362639182]
本稿では,wav2vec 2.0音声特徴量に対する感情認識を実現するために,新しいクロス表現音声モデルを提案する。
また、Transformerベースのモデルを用いて抽出したテキスト特徴から感情を認識するために、CNNベースのモデルをトレーニングする。
本手法は,4クラス分類問題においてIEMOCAPデータセットを用いて評価する。
論文 参考訳(メタデータ) (2021-09-29T07:08:40Z) - SpanEmo: Casting Multi-label Emotion Classification as Span-prediction [15.41237087996244]
マルチラベル感情分類をスパンプレディションとした新しいモデル「SpanEmo」を提案する。
入力文中の複数の共存感情をモデル化することに焦点を当てた損失関数を導入する。
SemEval2018マルチラベル感情データを3つの言語セットで実験した結果,本手法の有効性が示された。
論文 参考訳(メタデータ) (2021-01-25T12:11:04Z) - Modality-Transferable Emotion Embeddings for Low-Resource Multimodal
Emotion Recognition [55.44502358463217]
本稿では、上記の問題に対処するため、感情を埋め込んだモダリティ変換可能なモデルを提案する。
我々のモデルは感情カテゴリーのほとんどで最先端のパフォーマンスを達成する。
私たちのモデルは、目に見えない感情に対するゼロショットと少数ショットのシナリオにおいて、既存のベースラインよりも優れています。
論文 参考訳(メタデータ) (2020-09-21T06:10:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。