論文の概要: From Chatter to Matter: Addressing Critical Steps of Emotion Recognition
Learning in Task-oriented Dialogue
- arxiv url: http://arxiv.org/abs/2308.12648v1
- Date: Thu, 24 Aug 2023 08:46:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-25 14:35:45.914683
- Title: From Chatter to Matter: Addressing Critical Steps of Emotion Recognition
Learning in Task-oriented Dialogue
- Title(参考訳): チャッターからマターへ:タスク指向対話における感情認識学習の重要ステップに対処する
- Authors: Shutong Feng, Nurul Lubis, Benjamin Ruppik, Christian Geishauser,
Michael Heck, Hsien-chin Lin, Carel van Niekerk, Renato Vukovic, Milica
Ga\v{s}i\'c
- Abstract要約: 本稿では,チャット型ERCモデルをタスク指向モデルに変換するフレームワークを提案する。
ユーザの目標からの重要な情報を組み込むために,対話状態が補助機能として使用される。
本フレームワークは,EmoWOZ上でのチップチャットERCモデルの大幅な改善を実現する。
- 参考スコア(独自算出の注目度): 6.918298428336528
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Emotion recognition in conversations (ERC) is a crucial task for building
human-like conversational agents. While substantial efforts have been devoted
to ERC for chit-chat dialogues, the task-oriented counterpart is largely left
unattended. Directly applying chit-chat ERC models to task-oriented dialogues
(ToDs) results in suboptimal performance as these models overlook key features
such as the correlation between emotions and task completion in ToDs. In this
paper, we propose a framework that turns a chit-chat ERC model into a
task-oriented one, addressing three critical aspects: data, features and
objective. First, we devise two ways of augmenting rare emotions to improve ERC
performance. Second, we use dialogue states as auxiliary features to
incorporate key information from the goal of the user. Lastly, we leverage a
multi-aspect emotion definition in ToDs to devise a multi-task learning
objective and a novel emotion-distance weighted loss function. Our framework
yields significant improvements for a range of chit-chat ERC models on EmoWOZ,
a large-scale dataset for user emotion in ToDs. We further investigate the
generalisability of the best resulting model to predict user satisfaction in
different ToD datasets. A comparison with supervised baselines shows a strong
zero-shot capability, highlighting the potential usage of our framework in
wider scenarios.
- Abstract(参考訳): 会話における感情認識(ERC)は人間のような会話エージェントを構築する上で重要な課題である。
チップチャット対話のためのERCに多大な努力が注がれているが、タスク指向の対話は、ほとんど未完成のままである。
タスク指向対話(ToDs)にChit-chat ERCモデルを直接適用すると、これらのモデルがToDにおける感情の相関やタスク完了といった重要な特徴を見越すため、サブ最適性能が得られる。
本稿では,chit-chat ercモデルをタスク指向モデルに変換し,データ,特徴,目的という3つの重要な側面を解決するフレームワークを提案する。
まず、ERCのパフォーマンスを改善するために、まれな感情を増強する2つの方法を考案する。
第2に,ユーザの目標から重要な情報を組み込むための補助機能として対話状態を用いる。
最後に,todにおけるマルチアスペクト感情定義を利用して,マルチタスク学習目標と新しい感情距離重み付き損失関数を考案する。
当社のフレームワークは,ToDにおけるユーザ感情の大規模データセットであるEmoWOZ上での,チップチャットERCモデルの大幅な改善を実現している。
さらに,ToDデータセットのユーザ満足度を予測するため,最適結果モデルの汎用性についても検討する。
監視されたベースラインと比較すると、強力なゼロショット機能を示し、より広いシナリオでの私たちのフレームワークの利用可能性を強調しています。
関連論文リスト
- InstructERC: Reforming Emotion Recognition in Conversation with Multi-task Retrieval-Augmented Large Language Models [9.611864685207056]
本稿では,識別的枠組みから大規模言語モデル(LLM)に基づく生成的枠組みへ,感情認識タスクを再構築するための新しいアプローチであるインストラクタCを提案する。
InstructERCは、3つの重要な貢献をしている:(1)モデルがマルチグラニュラリティ対話監視情報を明示的に統合するのに役立つ単純で効果的なテンプレートモジュール、(2)話者識別と感情予測タスクという2つの追加の感情アライメントタスクを導入し、会話における対話の役割の関係と将来の感情傾向を暗黙的にモデル化する。
論文 参考訳(メタデータ) (2023-09-21T09:22:07Z) - Dialogue Agents 101: A Beginner's Guide to Critical Ingredients for Designing Effective Conversational Systems [29.394466123216258]
本研究は,対話エージェントの主要な特徴,対応するオープンドメインデータセット,およびこれらのデータセットをベンチマークする手法について概説する。
我々は,既存のデータセットの会話から構築された統一dIalogue dataseTであるUNITを提案する。
論文 参考訳(メタデータ) (2023-07-14T10:05:47Z) - DiPlomat: A Dialogue Dataset for Situated Pragmatic Reasoning [89.92601337474954]
プラグマティック推論は、実生活における会話でしばしば起こる暗黙の意味を解読する上で重要な役割を担っている。
そこで我々は,現実的な推論と会話理解の場所に関するマシンの能力のベンチマークを目的とした,新しい挑戦であるDiPlomatを紹介した。
論文 参考訳(メタデータ) (2023-06-15T10:41:23Z) - JARVIS: A Neuro-Symbolic Commonsense Reasoning Framework for
Conversational Embodied Agents [14.70666899147632]
本稿では,モジュール型,一般化型,解釈可能な対話型エンボディエージェントのためのニューロシンボリック・コモンセンス推論フレームワークを提案する。
我々のフレームワークは、ダイアログヒストリー(EDH)、TfD、Two-Agent Task Completion(TATC)を含む3つのダイアログベースの実施タスクに対して、最先端(SOTA)結果を達成する。
私たちのモデルは、Alexa Prize SimBot Public Benchmark Challengeで第1位です。
論文 参考訳(メタデータ) (2022-08-28T18:30:46Z) - DialogZoo: Large-Scale Dialog-Oriented Task Learning [52.18193690394549]
我々は,多種多様な対話課題を解くための統合基盤モデルの構築を目指している。
この目的を達成するために、73の公開データセットから、まず大規模なラベル付き対話データセットを収集する。
論文 参考訳(メタデータ) (2022-05-25T11:17:16Z) - A Chit-Chats Enhanced Task-Oriented Dialogue Corpora for Fuse-Motive
Conversation Systems [9.541995537438394]
CCET (China Chat-Enhanced-Task) と呼ばれるマルチターン対話データセットをリリースする。
本稿では, CC音声で統合されたTODセッションの評価指標とともに, ヒューズ動機対話の形式化手法を提案する。
論文 参考訳(メタデータ) (2022-05-12T05:43:18Z) - KETOD: Knowledge-Enriched Task-Oriented Dialogue [77.59814785157877]
対話システム研究における既存の研究は、主にタスク指向の対話とチャットを独立したドメインとして扱う。
本研究では,タスク指向対話と知識ベースチップチャットを一つのモデルに効果的に統合する方法について検討する。
論文 参考訳(メタデータ) (2022-05-11T16:01:03Z) - TOD-DA: Towards Boosting the Robustness of Task-oriented Dialogue
Modeling on Spoken Conversations [24.245354500835465]
本稿では,音声対話におけるタスク指向対話モデリングの堅牢性を高めるために,新しいモデルに依存しないデータ拡張パラダイムを提案する。
本手法は,音声対話におけるタスク指向対話モデリングのベンチマークであるDSTC10 Track2の両タスクにおいて,第1位となった。
論文 参考訳(メタデータ) (2021-12-23T10:04:25Z) - RADDLE: An Evaluation Benchmark and Analysis Platform for Robust
Task-oriented Dialog Systems [75.87418236410296]
我々はraddleベンチマーク、コーパスのコレクション、および様々なドメインのモデルのパフォーマンスを評価するためのツールを紹介します。
RADDLEは強力な一般化能力を持つモデルを好んで奨励するように設計されている。
先行学習と微調整に基づく最近の最先端システムの評価を行い,異種ダイアログコーパスに基づく基礎的な事前学習が,ドメインごとの個別モデルをトレーニングするよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-12-29T08:58:49Z) - Exploiting Unsupervised Data for Emotion Recognition in Conversations [76.01690906995286]
会話における感情認識(Emotion Recognition in Conversations:ERC)は、会話における話者の感情状態を予測することを目的としている。
ERCタスクの教師付きデータは限られている。
教師なし会話データを活用する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-10-02T13:28:47Z) - TOD-BERT: Pre-trained Natural Language Understanding for Task-Oriented
Dialogue [113.45485470103762]
本研究では,言語モデリングのためのタスク指向対話データセットを,人間とマルチターンの9つに統合する。
事前学習時の対話動作をモデル化するために,ユーザトークンとシステムトークンをマスク付き言語モデルに組み込む。
論文 参考訳(メタデータ) (2020-04-15T04:09:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。