論文の概要: Emotion Dynamics Modeling via BERT
- arxiv url: http://arxiv.org/abs/2104.07252v1
- Date: Thu, 15 Apr 2021 05:58:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-16 15:16:33.803161
- Title: Emotion Dynamics Modeling via BERT
- Title(参考訳): BERTを用いた感情動態モデリング
- Authors: Haiqin Yang and Jianping Shen
- Abstract要約: 対話型感情ダイナミクスのインターロケータ間およびインターロケータ間依存性をキャプチャするBERTベースの一連のモデルを開発する。
提案したモデルはそれぞれ,最先端のベースラインよりも約5%,10%改善できる。
- 参考スコア(独自算出の注目度): 7.3785751096660555
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Emotion dynamics modeling is a significant task in emotion recognition in
conversation. It aims to predict conversational emotions when building
empathetic dialogue systems. Existing studies mainly develop models based on
Recurrent Neural Networks (RNNs). They cannot benefit from the power of the
recently-developed pre-training strategies for better token representation
learning in conversations. More seriously, it is hard to distinguish the
dependency of interlocutors and the emotional influence among interlocutors by
simply assembling the features on top of RNNs. In this paper, we develop a
series of BERT-based models to specifically capture the inter-interlocutor and
intra-interlocutor dependencies of the conversational emotion dynamics.
Concretely, we first substitute BERT for RNNs to enrich the token
representations. Then, a Flat-structured BERT (F-BERT) is applied to link up
utterances in a conversation directly, and a Hierarchically-structured BERT
(H-BERT) is employed to distinguish the interlocutors when linking up
utterances. More importantly, a Spatial-Temporal-structured BERT, namely
ST-BERT, is proposed to further determine the emotional influence among
interlocutors. Finally, we conduct extensive experiments on two popular emotion
recognition in conversation benchmark datasets and demonstrate that our
proposed models can attain around 5\% and 10\% improvement over the
state-of-the-art baselines, respectively.
- Abstract(参考訳): 感情のダイナミクスモデリングは会話における感情認識において重要なタスクである。
共感的対話システムを構築する際の会話感情を予測することを目的としている。
既存の研究は主にリカレントニューラルネットワーク(RNN)に基づくモデルを開発する。
会話におけるトークン表現学習を改善するために最近開発された事前学習戦略のパワーを享受することはできない。
より真面目な話として、RNN上の特徴を組み立てることによって、インターロケータの依存性と、インターロケータ間の感情的影響を区別することは困難である。
本稿では,対話的感情力学のインターロケータ間およびインターロケータ間依存性を具体的に把握する,BERTに基づく一連のモデルを開発する。
具体的には、まずBERTをRNNに置換し、トークン表現を強化する。
そして、会話中の発話を直接リンクするためにフラット構造化BERT(F−BERT)を適用し、さらに階層構造BERT(H−BERT)を用いて発話をリンクする際のインターロケータを識別する。
より重要なことは、空間的時間構造を持つBERT、すなわちST-BERTが、インターロケータ間の感情的影響をさらに決定するために提案されることである。
最後に、会話ベンチマークデータセットにおける2つの一般的な感情認識に関する広範囲な実験を行い、提案モデルが、それぞれ最先端のベースラインに対して約5\%と10\%の改善を達成できることを実証する。
関連論文リスト
- Acknowledgment of Emotional States: Generating Validating Responses for
Empathetic Dialogue [21.621844911228315]
本研究は,共感的対話を有効活用するための最初の枠組みを紹介する。
本手法では,1)検証タイミング検出,2)ユーザの感情状態の同定,3)応答生成の検証を行う。
論文 参考訳(メタデータ) (2024-02-20T07:20:03Z) - Dynamic Causal Disentanglement Model for Dialogue Emotion Detection [77.96255121683011]
隠れ変数分離に基づく動的因果解離モデルを提案する。
このモデルは、対話の内容を効果的に分解し、感情の時間的蓄積を調べる。
具体的には,発話と隠れ変数の伝搬を推定する動的時間的ゆがみモデルを提案する。
論文 参考訳(メタデータ) (2023-09-13T12:58:09Z) - Context-Dependent Embedding Utterance Representations for Emotion
Recognition in Conversations [1.8126187844654875]
我々は会話の文脈を利用した会話における感情認識にアプローチする。
それぞれの発話の文脈依存的な埋め込み表現を提案する。
提案手法の有効性は,オープンドメインのDailyDialogデータセットとタスク指向のEmoWOZデータセットで検証される。
論文 参考訳(メタデータ) (2023-04-17T12:37:57Z) - EmotionIC: emotional inertia and contagion-driven dependency modeling for emotion recognition in conversation [34.24557248359872]
本稿では,ERCタスクに対する感情的慣性・伝染型依存性モデリング手法(EmotionIC)を提案する。
EmotionICは3つの主要コンポーネント、すなわちIDマスク付きマルチヘッド注意(IMMHA)、対話型Gated Recurrent Unit(DiaGRU)、Skip-chain Conditional Random Field(SkipCRF)から構成されている。
実験結果から,提案手法は4つのベンチマークデータセットにおいて,最先端のモデルよりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2023-03-20T13:58:35Z) - deep learning of segment-level feature representation for speech emotion
recognition in conversations [9.432208348863336]
そこで本稿では,意図的文脈依存と話者感応的相互作用をキャプチャする対話型音声感情認識手法を提案する。
まず、事前訓練されたVGGishモデルを用いて、個々の発話におけるセグメントベース音声表現を抽出する。
第2に、注意的双方向リカレントユニット(GRU)は、文脈に敏感な情報をモデル化し、話者内および話者間依存関係を共同で探索する。
論文 参考訳(メタデータ) (2023-02-05T16:15:46Z) - Channel-aware Decoupling Network for Multi-turn Dialogue Comprehension [81.47133615169203]
本稿では,PrLMの逐次文脈化を超えて,発話間の包括的相互作用のための合成学習を提案する。
私たちは、モデルが対話ドメインに適応するのを助けるために、ドメイン適応型トレーニング戦略を採用しています。
実験の結果,提案手法は4つの公開ベンチマークデータセットにおいて,強力なPrLMベースラインを著しく向上させることがわかった。
論文 参考訳(メタデータ) (2023-01-10T13:18:25Z) - Contextual Information and Commonsense Based Prompt for Emotion
Recognition in Conversation [14.651642872901496]
会話における感情認識(Emotion Recognition in conversation,ERC)は、ある会話における発話ごとの感情を検出することを目的としている。
近年のERCモデルは、事前学習と微調整のパラダイムを取り入れた事前学習言語モデル(PLM)を活用して、優れた性能を実現している。
本稿では,命令モデルと言語モデル(LM)チューニングの新しいパラダイムを取り入れた新しいERCモデルCISPERを提案する。
論文 参考訳(メタデータ) (2022-07-27T02:34:05Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - EMOVIE: A Mandarin Emotion Speech Dataset with a Simple Emotional
Text-to-Speech Model [56.75775793011719]
音声ファイルを含む9,724のサンプルとその感情ラベル付きアノテーションを含むマンダリン感情音声データセットを導入,公開する。
入力として追加の参照音声を必要とするこれらのモデルとは異なり、我々のモデルは入力テキストから直接感情ラベルを予測し、感情埋め込みに基づいてより表現力のある音声を生成することができる。
実験段階では、まず感情分類タスクによってデータセットの有効性を検証し、次に提案したデータセットに基づいてモデルをトレーニングし、一連の主観評価を行う。
論文 参考訳(メタデータ) (2021-06-17T08:34:21Z) - Reinforcement Learning for Emotional Text-to-Speech Synthesis with
Improved Emotion Discriminability [82.39099867188547]
感情的テキスト音声合成(ETTS)は近年大きく進歩している。
i-ETTSと呼ばれるETTSの新しい対話型トレーニングパラダイムを提案する。
i-ETTSの最適化品質を確保するため、強化学習による反復トレーニング戦略を策定します。
論文 参考訳(メタデータ) (2021-04-03T13:52:47Z) - TOD-BERT: Pre-trained Natural Language Understanding for Task-Oriented
Dialogue [113.45485470103762]
本研究では,言語モデリングのためのタスク指向対話データセットを,人間とマルチターンの9つに統合する。
事前学習時の対話動作をモデル化するために,ユーザトークンとシステムトークンをマスク付き言語モデルに組み込む。
論文 参考訳(メタデータ) (2020-04-15T04:09:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。