論文の概要: Language Models as Emotional Classifiers for Textual Conversations
- arxiv url: http://arxiv.org/abs/2008.12360v1
- Date: Thu, 27 Aug 2020 20:04:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 07:54:58.231086
- Title: Language Models as Emotional Classifiers for Textual Conversations
- Title(参考訳): テキスト会話における感情分類器としての言語モデル
- Authors: Connor T. Heaton, David M. Schwartz
- Abstract要約: 本稿では,会話中の感情を分類する新しい手法を提案する。
提案手法のバックボーンには,事前学習型言語モデル (LM) がある。
提案手法をIEMOCAPとFriendsデータセットに適用する。
- 参考スコア(独自算出の注目度): 3.04585143845864
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Emotions play a critical role in our everyday lives by altering how we
perceive, process and respond to our environment. Affective computing aims to
instill in computers the ability to detect and act on the emotions of human
actors. A core aspect of any affective computing system is the classification
of a user's emotion. In this study we present a novel methodology for
classifying emotion in a conversation. At the backbone of our proposed
methodology is a pre-trained Language Model (LM), which is supplemented by a
Graph Convolutional Network (GCN) that propagates information over the
predicate-argument structure identified in an utterance. We apply our proposed
methodology on the IEMOCAP and Friends data sets, achieving state-of-the-art
performance on the former and a higher accuracy on certain emotional labels on
the latter. Furthermore, we examine the role context plays in our methodology
by altering how much of the preceding conversation the model has access to when
making a classification.
- Abstract(参考訳): 感情は、私たちの環境に対する認識、プロセス、反応を変えることで、私たちの日常生活において重要な役割を果たす。
Affective Computingは、コンピュータに人間のアクターの感情を検出し、行動する能力を与える。
情緒的コンピューティングシステムの中核的な側面は、ユーザの感情の分類である。
本研究では,会話中の感情を分類する新しい手法を提案する。
提案手法のバックボーンは,学習済み言語モデル (lm) であり,発話中に同定された述語-言語構造上で情報を伝達するグラフ畳み込みネットワーク (gcn) によって補完される。
提案手法をIEMOCAPとFriendsデータセットに適用し,前者に対する最先端のパフォーマンスと後者に対する感情ラベルの精度を向上する。
さらに,分類を行う際に,モデルがどの程度の会話にアクセスできるかを変更することで,方法論における役割コンテキストの役割について検討する。
関連論文リスト
- Recognizing Emotion Regulation Strategies from Human Behavior with Large Language Models [44.015651538470856]
人間の感情は直接表現されないことが多いが、内部のプロセスや社会的表示規則に従って制御される。
ユーザ間のシナリオで異なる感情制御戦略を自動的に分類する方法は存在しない。
我々は最近導入されたtextscDeepコーパスを利用して、感情の恥の社会的表示をモデル化する。
微調整されたLlama2-7Bモデルは、利用した感情制御戦略を高精度に分類することができる。
論文 参考訳(メタデータ) (2024-08-08T12:47:10Z) - Emotion Rendering for Conversational Speech Synthesis with Heterogeneous
Graph-Based Context Modeling [50.99252242917458]
会話音声合成(CSS)は,会話環境の中で適切な韻律と感情のインフレクションで発話を正確に表現することを目的としている。
データ不足の問題に対処するため、私たちはカテゴリと強度の点で感情的なラベルを慎重に作成します。
我々のモデルは感情の理解と表現においてベースラインモデルよりも優れています。
論文 参考訳(メタデータ) (2023-12-19T08:47:50Z) - Dynamic Causal Disentanglement Model for Dialogue Emotion Detection [77.96255121683011]
隠れ変数分離に基づく動的因果解離モデルを提案する。
このモデルは、対話の内容を効果的に分解し、感情の時間的蓄積を調べる。
具体的には,発話と隠れ変数の伝搬を推定する動的時間的ゆがみモデルを提案する。
論文 参考訳(メタデータ) (2023-09-13T12:58:09Z) - deep learning of segment-level feature representation for speech emotion
recognition in conversations [9.432208348863336]
そこで本稿では,意図的文脈依存と話者感応的相互作用をキャプチャする対話型音声感情認識手法を提案する。
まず、事前訓練されたVGGishモデルを用いて、個々の発話におけるセグメントベース音声表現を抽出する。
第2に、注意的双方向リカレントユニット(GRU)は、文脈に敏感な情報をモデル化し、話者内および話者間依存関係を共同で探索する。
論文 参考訳(メタデータ) (2023-02-05T16:15:46Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - Multimodal Emotion Recognition with High-level Speech and Text Features [8.141157362639182]
本稿では,wav2vec 2.0音声特徴量に対する感情認識を実現するために,新しいクロス表現音声モデルを提案する。
また、Transformerベースのモデルを用いて抽出したテキスト特徴から感情を認識するために、CNNベースのモデルをトレーニングする。
本手法は,4クラス分類問題においてIEMOCAPデータセットを用いて評価する。
論文 参考訳(メタデータ) (2021-09-29T07:08:40Z) - An Attribute-Aligned Strategy for Learning Speech Representation [57.891727280493015]
属性選択機構によってこれらの問題に柔軟に対処できる音声表現を導出する属性整合学習戦略を提案する。
具体的には、音声表現を属性依存ノードに分解する層式表現可変オートエンコーダ(LR-VAE)を提案する。
提案手法は,IDのないSER上での競合性能と,無感情SV上でのより良い性能を実現する。
論文 参考訳(メタデータ) (2021-06-05T06:19:14Z) - Enhancing Cognitive Models of Emotions with Representation Learning [58.2386408470585]
本稿では,きめ細かな感情の埋め込み表現を生成するための,新しいディープラーニングフレームワークを提案する。
本フレームワークは,コンテキスト型埋め込みエンコーダとマルチヘッド探索モデルを統合する。
本モデルは共感対話データセット上で評価され,32種類の感情を分類する最新結果を示す。
論文 参考訳(メタデータ) (2021-04-20T16:55:15Z) - Acted vs. Improvised: Domain Adaptation for Elicitation Approaches in
Audio-Visual Emotion Recognition [29.916609743097215]
一般化された感情認識システムの開発における主な課題は、ラベル付きデータの不足とゴールドスタンダード参照の欠如である。
本研究では,感情誘発アプローチをドメイン知識とみなし,感情発話におけるドメイン伝達学習技術を探求する。
論文 参考訳(メタデータ) (2021-04-05T15:59:31Z) - Seen and Unseen emotional style transfer for voice conversion with a new
emotional speech dataset [84.53659233967225]
感情的音声変換は、言語内容と話者のアイデンティティを保ちながら、音声中の感情的韻律を変換することを目的としている。
可変自動符号化ワッサーシュタイン生成対向ネットワーク(VAW-GAN)に基づく新しいフレームワークを提案する。
提案するフレームワークは,ベースラインフレームワークを一貫して上回り,優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2020-10-28T07:16:18Z) - Temporal aggregation of audio-visual modalities for emotion recognition [0.5352699766206808]
本研究では,時間的オフセットの異なる時間的オフセットと時間的ウィンドウからの音声・視覚的モダリティを組み合わせた感情認識のためのマルチモーダル融合手法を提案する。
提案手法は,文献と人間の精度評価から,他の手法よりも優れている。
論文 参考訳(メタデータ) (2020-07-08T18:44:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。