論文の概要: Speaker-Guided Encoder-Decoder Framework for Emotion Recognition in
Conversation
- arxiv url: http://arxiv.org/abs/2206.03173v1
- Date: Tue, 7 Jun 2022 10:51:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-08 23:07:10.372460
- Title: Speaker-Guided Encoder-Decoder Framework for Emotion Recognition in
Conversation
- Title(参考訳): 会話における感情認識のための話者誘導エンコーダ・デコーダフレームワーク
- Authors: Yinan Bao, Qianwen Ma, Lingwei Wei, Wei Zhou, Songlin Hu
- Abstract要約: 会話における感情認識は,会話中の発話の感情ラベルを予測することを目的としている。
動的に話者内および話者間依存関係を協調的に探索する新しい話者モデリング手法を設計する。
また、感情の復号化に話者情報を完全に活用する、ERCのための話者ガイドデコーダ(SGED)フレームワークを提案する。
- 参考スコア(独自算出の注目度): 23.93696773727978
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The emotion recognition in conversation (ERC) task aims to predict the
emotion label of an utterance in a conversation. Since the dependencies between
speakers are complex and dynamic, which consist of intra- and inter-speaker
dependencies, the modeling of speaker-specific information is a vital role in
ERC. Although existing researchers have proposed various methods of speaker
interaction modeling, they cannot explore dynamic intra- and inter-speaker
dependencies jointly, leading to the insufficient comprehension of context and
further hindering emotion prediction. To this end, we design a novel speaker
modeling scheme that explores intra- and inter-speaker dependencies jointly in
a dynamic manner. Besides, we propose a Speaker-Guided Encoder-Decoder (SGED)
framework for ERC, which fully exploits speaker information for the decoding of
emotion. We use different existing methods as the conversational context
encoder of our framework, showing the high scalability and flexibility of the
proposed framework. Experimental results demonstrate the superiority and
effectiveness of SGED.
- Abstract(参考訳): 会話における感情認識は,会話中の発話の感情ラベルを予測することを目的としている。
話者間の依存関係は、話者内および話者間依存関係からなる複雑で動的であるため、話者固有情報のモデリングは、ERCにおいて不可欠である。
既存の研究者は様々な話者相互作用モデリング法を提案しているが、動的話者内および話者間依存関係を共同で探索することはできず、文脈の理解が不十分であり、さらに感情予測を妨げている。
そこで本研究では,話者内および話者間依存関係を動的に探索する新しい話者モデリング手法を設計する。
さらに、感情の復号化に話者情報を完全に活用する、ERCのための話者ガイドエンコーダデコーダ(SGED)フレームワークを提案する。
私たちは、フレームワークの会話コンテキストエンコーダとして、異なる既存のメソッドを使用し、提案フレームワークのスケーラビリティと柔軟性を示します。
SGEDの優位性と有効性を示す実験結果を得た。
関連論文リスト
- Improving Speaker Diarization using Semantic Information: Joint Pairwise
Constraints Propagation [53.01238689626378]
本稿では,話者ダイアリゼーションシステムにおける意味情報を活用する新しい手法を提案する。
音声言語理解モジュールを導入し、話者関連意味情報を抽出する。
本稿では,これらの制約を話者ダイアリゼーションパイプラインに統合する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2023-09-19T09:13:30Z) - Revisiting Conversation Discourse for Dialogue Disentanglement [88.3386821205896]
本稿では,対話談話特性を最大限に活用し,対話の絡み合いを高めることを提案する。
我々は,会話の意味的文脈をより良くモデル化するために,リッチな構造的特徴を統合する構造認識フレームワークを開発した。
我々の研究は、より広範なマルチスレッド対話アプリケーションを促進する大きな可能性を秘めている。
論文 参考訳(メタデータ) (2023-06-06T19:17:47Z) - deep learning of segment-level feature representation for speech emotion
recognition in conversations [9.432208348863336]
そこで本稿では,意図的文脈依存と話者感応的相互作用をキャプチャする対話型音声感情認識手法を提案する。
まず、事前訓練されたVGGishモデルを用いて、個々の発話におけるセグメントベース音声表現を抽出する。
第2に、注意的双方向リカレントユニット(GRU)は、文脈に敏感な情報をモデル化し、話者内および話者間依存関係を共同で探索する。
論文 参考訳(メタデータ) (2023-02-05T16:15:46Z) - Discourse-Aware Emotion Cause Extraction in Conversations [21.05202596080196]
会話における感情的原因抽出(ECEC)は、会話における感情的原因を含む発話を抽出することを目的としている。
本稿では,この課題に対する談話認識モデル(DAM)を提案する。
ベンチマークコーパスの結果、DAMは文学における最先端システム(SOTA)よりも優れていた。
論文 参考訳(メタデータ) (2022-10-26T02:11:01Z) - Learning to Listen: Modeling Non-Deterministic Dyadic Facial Motion [89.01668641930206]
本稿では,対話における対話コミュニケーションをモデル化するための枠組みを提案する。
我々は、対応するリスナー動作の複数の可能性を自動回帰的に出力する。
本手法は,非言語的ダイアド相互作用の多モーダルおよび非決定論的性質を有機的に捕捉する。
論文 参考訳(メタデータ) (2022-04-18T17:58:04Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - A Speaker-aware Parallel Hierarchical Attentive Encoder-Decoder Model
for Multi-turn Dialogue Generation [13.820298189734686]
本稿では,マルチターン会話における話者の区別を強調するオープンドメイン対話生成モデルを提案する。
実験の結果,PHAEDは自動評価と人的評価の両面で最先端の成績を示した。
論文 参考訳(メタデータ) (2021-10-13T16:08:29Z) - A Hierarchical Transformer with Speaker Modeling for Emotion Recognition
in Conversation [12.065178204539693]
Emotion Recognition in Conversation(ERC)は、パーソナライズされたインタラクティブな感情認識タスクです。
現在の方法は、各話者間の関係を構築することによって話者の相互作用をモデル化する。
複雑なモデリングをバイナリバージョン – スピーカー内依存関係とスピーカー間依存関係 – に簡略化します。
論文 参考訳(メタデータ) (2020-12-29T14:47:35Z) - Structured Attention for Unsupervised Dialogue Structure Induction [110.12561786644122]
本稿では、構造化された注意層を離散潜在状態を持つ変化型リカレントニューラルネットワーク(VRNN)モデルに組み込んで、教師なしの方法で対話構造を学ぶことを提案する。
バニラVRNNと比較して、構造化された注意は、構造的帰納バイアスを強制しながら、ソース文の埋め込みの異なる部分にフォーカスすることができる。
論文 参考訳(メタデータ) (2020-09-17T23:07:03Z) - Filling the Gap of Utterance-aware and Speaker-aware Representation for
Multi-turn Dialogue [76.88174667929665]
マルチターン対話は、2つ以上の異なる話者の役割から複数の発話からなる。
既存の検索に基づくマルチターン対話モデルでは、事前訓練された言語モデル(PrLM)をエンコーダとして、対話を粗く表現する。
本稿では,対話履歴に係わる効果的な発話認識表現と話者認識表現をモデル化することにより,そのようなギャップを埋める新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-09-14T15:07:19Z) - A Machine of Few Words -- Interactive Speaker Recognition with
Reinforcement Learning [35.36769027019856]
対話型話者認識(ISR)と呼ばれる自動話者認識のための新しいパラダイムを提案する。
このパラダイムでは、個人化された発話をリクエストすることで、話者の表現を段階的に構築することを目的としている。
提案手法は,音声信号量が少ない場合に優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-08-07T12:44:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。