論文の概要: A Unified Approach to Emotion Detection and Task-Oriented Dialogue
Modeling
- arxiv url: http://arxiv.org/abs/2401.13789v2
- Date: Mon, 19 Feb 2024 16:18:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 03:19:04.947878
- Title: A Unified Approach to Emotion Detection and Task-Oriented Dialogue
Modeling
- Title(参考訳): 感情検出とタスク指向対話モデリングへの統一的アプローチ
- Authors: Armand Stricker, Patrick Paroubek
- Abstract要約: ユーザ感情検出はテキストベースのタスク指向対話システムでは見過ごされがちである。
EDとTODモデリングをシームレスに統一することは相互に利益をもたらすことを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In current text-based task-oriented dialogue (TOD) systems, user emotion
detection (ED) is often overlooked or is typically treated as a separate and
independent task, requiring additional training. In contrast, our work
demonstrates that seamlessly unifying ED and TOD modeling brings about mutual
benefits, and is therefore an alternative to be considered. Our method consists
in augmenting SimpleToD, an end-to-end TOD system, by extending belief state
tracking to include ED, relying on a single language model. We evaluate our
approach using GPT-2 and Llama-2 on the EmoWOZ benchmark, a version of MultiWOZ
annotated with emotions. Our results reveal a general increase in performance
for ED and task results. Our findings also indicate that user emotions provide
useful contextual conditioning for system responses, and can be leveraged to
further refine responses in terms of empathy.
- Abstract(参考訳): 現在のテキストベースのタスク指向対話(TOD)システムでは、ユーザ感情検出(ED)はしばしば見過ごされるか、通常は独立したタスクとして扱われ、追加のトレーニングを必要とする。
対照的に、我々の研究は、EDとTODモデリングをシームレスに統一することは相互に利益をもたらし、従って考慮すべき代替手段であることを示す。
本手法は,単一言語モデルに頼って,信念状態追跡をEDを含むように拡張することで,エンドツーエンドTODシステムであるSimpleToDを拡張することからなる。
我々は感情を付加したMultiWOZのバージョンであるEmoWOZベンチマークにおいて,GPT-2とLlama-2を用いたアプローチを評価した。
本結果から,EDとタスク結果の総合的な性能向上が明らかとなった。
また,ユーザの感情がシステム応答に有用な文脈条件付けを提供し,共感の観点からさらなる応答の洗練に活用できることが示唆された。
関連論文リスト
- EmoBench: Evaluating the Emotional Intelligence of Large Language Models [75.79920924768798]
EmoBenchは、確立された心理学理論に基づいて、マシン感情知能(EI)の包括的な定義を提案するベンチマークである。
EmoBenchには、英語と中国語で400の手作りの質問が含まれている。
以上の結果から,既存の大規模言語モデルのEIと平均的な人間の間には,かなりのギャップがみられ,今後の研究に向けての有望な方向性が浮かび上がっている。
論文 参考訳(メタデータ) (2024-02-19T11:48:09Z) - Layer-Wise Analysis of Self-Supervised Acoustic Word Embeddings: A Study
on Speech Emotion Recognition [54.952250732643115]
連続表現から派生した長さの固定長特徴である音響単語埋め込み(AWE)について検討し,その利点について検討した。
AWEは以前、音響的識別可能性の把握に有用であることを示した。
以上の結果から,AWEが伝達する音響的文脈が明らかになり,高い競争力を持つ音声認識精度が示された。
論文 参考訳(メタデータ) (2024-02-04T21:24:54Z) - Dynamic Causal Disentanglement Model for Dialogue Emotion Detection [77.96255121683011]
隠れ変数分離に基づく動的因果解離モデルを提案する。
このモデルは、対話の内容を効果的に分解し、感情の時間的蓄積を調べる。
具体的には,発話と隠れ変数の伝搬を推定する動的時間的ゆがみモデルを提案する。
論文 参考訳(メタデータ) (2023-09-13T12:58:09Z) - From Chatter to Matter: Addressing Critical Steps of Emotion Recognition
Learning in Task-oriented Dialogue [6.918298428336528]
本稿では,チャット型ERCモデルをタスク指向モデルに変換するフレームワークを提案する。
ユーザの目標からの重要な情報を組み込むために,対話状態が補助機能として使用される。
本フレームワークは,EmoWOZ上でのチップチャットERCモデルの大幅な改善を実現する。
論文 参考訳(メタデータ) (2023-08-24T08:46:30Z) - ECQED: Emotion-Cause Quadruple Extraction in Dialogs [37.66816413841564]
本稿では,感情に起因した発話対と感情と原因型を検出することを必要とする,感情・因果関係の4次抽出(ECQED)を提案する。
より詳細な感情を導入し,特徴が明らかに対話生成に有効であることを示す。
論文 参考訳(メタデータ) (2023-06-06T19:04:30Z) - Disentangled Variational Autoencoder for Emotion Recognition in
Conversations [14.92924920489251]
会話(ERC)における感情認識のためのVAD-VAE(VAD-VAE)を提案する。
VAD-VAEは3つをアンタングルし、Valence-Arousal-Dominance(VAD)を潜在空間から表現する。
実験により、VAD-VAEは2つのデータセット上で最先端のモデルより優れていることが示された。
論文 参考訳(メタデータ) (2023-05-23T13:50:06Z) - EmotionIC: Emotional Inertia and Contagion-Driven Dependency Modeling
for Emotion Recognition in Conversation [37.41082775317849]
情緒的慣性・伝染(Emotional Inertia and Contagion, EmotionIC)による依存モデリングの新しいアプローチを提案する。
EmotionICは3つの主要コンポーネントから構成されており、Identity Masked Multi-Head Attention (IMMHA), Dialogue-based Gated Recurrent Unit (DiaGRU), Skip-chain Random Field (SkipCRF)である。
論文 参考訳(メタデータ) (2023-03-20T13:58:35Z) - A Hierarchical Regression Chain Framework for Affective Vocal Burst
Recognition [72.36055502078193]
本稿では,声帯からの感情認識のための連鎖回帰モデルに基づく階層的枠組みを提案する。
データスパシティの課題に対処するため、レイヤワイドおよび時間アグリゲーションモジュールを備えた自己教師付き学習(SSL)表現も使用しています。
提案されたシステムは、ACII Affective Vocal Burst (A-VB) Challenge 2022に参加し、「TWO」および「CULTURE」タスクで第1位となった。
論文 参考訳(メタデータ) (2023-03-14T16:08:45Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - MEmoBERT: Pre-training Model with Prompt-based Learning for Multimodal
Emotion Recognition [118.73025093045652]
マルチモーダル感情認識のための事前学習モデル textbfMEmoBERT を提案する。
従来の「訓練前、微妙な」パラダイムとは異なり、下流の感情分類タスクをマスク付きテキスト予測として再構成するプロンプトベースの手法を提案する。
提案するMEMOBERTは感情認識性能を大幅に向上させる。
論文 参考訳(メタデータ) (2021-10-27T09:57:00Z) - End-to-end Emotion-Cause Pair Extraction via Learning to Link [18.741585103275334]
感情原因ペア抽出(ECPE)は、文書中の感情とその根本原因を共同で調査することを目的としている。
既存のECPEのアプローチでは、(1)感情と原因の検出、(2)検出された感情と原因のペアリングという2段階の手法が一般的である。
本稿では, 感情, 原因, 感情原因のペアをエンドツーエンドで同時に抽出できるマルチタスク学習モデルを提案する。
論文 参考訳(メタデータ) (2020-02-25T07:49:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。