論文の概要: Contextual Information and Commonsense Based Prompt for Emotion
Recognition in Conversation
- arxiv url: http://arxiv.org/abs/2207.13254v1
- Date: Wed, 27 Jul 2022 02:34:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-28 13:23:23.981176
- Title: Contextual Information and Commonsense Based Prompt for Emotion
Recognition in Conversation
- Title(参考訳): 会話における感情認識のための文脈情報と常識に基づくプロンプト
- Authors: Jingjie Yi, Deqing Yang, Siyu Yuan, Caiyan Cao, Zhiyao Zhang and
Yanghua Xiao
- Abstract要約: 会話における感情認識(Emotion Recognition in conversation,ERC)は、ある会話における発話ごとの感情を検出することを目的としている。
近年のERCモデルは、事前学習と微調整のパラダイムを取り入れた事前学習言語モデル(PLM)を活用して、優れた性能を実現している。
本稿では,命令モデルと言語モデル(LM)チューニングの新しいパラダイムを取り入れた新しいERCモデルCISPERを提案する。
- 参考スコア(独自算出の注目度): 14.651642872901496
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Emotion recognition in conversation (ERC) aims to detect the emotion for each
utterance in a given conversation. The newly proposed ERC models have leveraged
pre-trained language models (PLMs) with the paradigm of pre-training and
fine-tuning to obtain good performance. However, these models seldom exploit
PLMs' advantages thoroughly, and perform poorly for the conversations lacking
explicit emotional expressions. In order to fully leverage the latent knowledge
related to the emotional expressions in utterances, we propose a novel ERC
model CISPER with the new paradigm of prompt and language model (LM) tuning.
Specifically, CISPER is equipped with the prompt blending the contextual
information and commonsense related to the interlocutor's utterances, to
achieve ERC more effectively. Our extensive experiments demonstrate CISPER's
superior performance over the state-of-the-art ERC models, and the
effectiveness of leveraging these two kinds of significant prompt information
for performance gains. To reproduce our experimental results conveniently,
CISPER's sourcecode and the datasets have been shared at
https://github.com/DeqingYang/CISPER.
- Abstract(参考訳): 会話における感情認識(erc)は、与えられた会話における各発話の感情を検出することを目的としている。
新たに提案されたERCモデルは,事前学習と微調整のパラダイムを取り入れた事前学習言語モデル(PLM)を利用して,優れた性能を実現している。
しかし、これらのモデルはplmの利点を十分に活用することがほとんどなく、明示的な感情表現を欠いた会話では不十分である。
発話中の感情表現に関連する潜伏知識をフル活用するために,新たなプロンプトモデルと言語モデル(LM)チューニングのパラダイムを用いた新しいERCモデルCISPERを提案する。
具体的には、CISPERは、対話者の発話に関連する文脈情報と常識をブレンドして、より効果的にERCを実現する。
我々はCISPERが最先端のERCモデルよりも優れた性能を示し、これらの2種類の重要なプロンプト情報を性能向上に活用することの有効性を実証した。
実験結果を便利に再現するために、CISPERのソースコードとデータセットはhttps://github.com/DeqingYang/CISPERで共有されている。
関連論文リスト
- Context-Aware Siamese Networks for Efficient Emotion Recognition in Conversation [1.1095648823126325]
本稿では,メトリクス学習訓練戦略に組み込む会話コンテキストをモデル化する手法を提案する。
対話における感情分類のためのマクロF1スコアの57.71を,Siamese Networkアーキテクチャによるメトリック学習を用いて獲得する。
論文 参考訳(メタデータ) (2024-04-17T07:36:40Z) - Improving the Robustness of Knowledge-Grounded Dialogue via Contrastive
Learning [71.8876256714229]
本稿では,知識ベース対話システムの堅牢性向上を目的とした,エンティティベースのコントラスト学習フレームワークを提案する。
提案手法は,自動評価スコアの点から,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2024-01-09T05:16:52Z) - Efficient Cross-Task Prompt Tuning for Few-Shot Conversational Emotion
Recognition [6.988000604392974]
Emotion Recognition in Conversation (ERC) は感情認識型共感機械の開発において重要であるため、広く研究されている。
対話型感情認識のためのCTPT(Cross-Task Prompt Tuning)と呼ばれる微分自由度最適化手法を提案する。
論文 参考訳(メタデータ) (2023-10-23T06:46:03Z) - Fuzzy Fingerprinting Transformer Language-Models for Emotion Recognition
in Conversations [0.7874708385247353]
会話における感情認識(ERC)を実現するための2つのアプローチを組み合わせることを提案する。
我々は,事前に訓練したRoBERTaに発話と以前の会話のターンを供給し,文脈的埋め込み発話表現を得る。
広く使われているDailyDialog ERCベンチマークデータセットに対するアプローチを検証する。
論文 参考訳(メタデータ) (2023-09-08T12:26:01Z) - Deep Emotion Recognition in Textual Conversations: A Survey [0.8602553195689513]
新しいアプリケーションと実装シナリオは、新しい課題と機会を示します。
これらは会話の文脈、話者、感情のダイナミクスのモデリングから、一般的な感覚表現の解釈まで様々である。
この調査は、アンバランスなデータに対処するテクニックを活用する利点を強調している。
論文 参考訳(メタデータ) (2022-11-16T19:42:31Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - An Exploration of Self-Supervised Pretrained Representations for
End-to-End Speech Recognition [98.70304981174748]
本稿では,事前訓練された音声表現の一般応用,高度なエンドツーエンド自動音声認識(E2E-ASR)モデルに焦点をあてる。
いくつかの事前訓練された音声表現を選択し、E2E-ASRのための様々なオープンソースおよび公開コーパスの実験結果を示す。
論文 参考訳(メタデータ) (2021-10-09T15:06:09Z) - An Attribute-Aligned Strategy for Learning Speech Representation [57.891727280493015]
属性選択機構によってこれらの問題に柔軟に対処できる音声表現を導出する属性整合学習戦略を提案する。
具体的には、音声表現を属性依存ノードに分解する層式表現可変オートエンコーダ(LR-VAE)を提案する。
提案手法は,IDのないSER上での競合性能と,無感情SV上でのより良い性能を実現する。
論文 参考訳(メタデータ) (2021-06-05T06:19:14Z) - Emotion Dynamics Modeling via BERT [7.3785751096660555]
対話型感情ダイナミクスのインターロケータ間およびインターロケータ間依存性をキャプチャするBERTベースの一連のモデルを開発する。
提案したモデルはそれぞれ,最先端のベースラインよりも約5%,10%改善できる。
論文 参考訳(メタデータ) (2021-04-15T05:58:48Z) - Reinforcement Learning for Emotional Text-to-Speech Synthesis with
Improved Emotion Discriminability [82.39099867188547]
感情的テキスト音声合成(ETTS)は近年大きく進歩している。
i-ETTSと呼ばれるETTSの新しい対話型トレーニングパラダイムを提案する。
i-ETTSの最適化品質を確保するため、強化学習による反復トレーニング戦略を策定します。
論文 参考訳(メタデータ) (2021-04-03T13:52:47Z) - Exploiting Unsupervised Data for Emotion Recognition in Conversations [76.01690906995286]
会話における感情認識(Emotion Recognition in Conversations:ERC)は、会話における話者の感情状態を予測することを目的としている。
ERCタスクの教師付きデータは限られている。
教師なし会話データを活用する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-10-02T13:28:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。