論文の概要: Few-Shot Emotion Recognition in Conversation with Sequential
Prototypical Networks
- arxiv url: http://arxiv.org/abs/2109.09366v1
- Date: Mon, 20 Sep 2021 08:33:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-21 16:53:41.619992
- Title: Few-Shot Emotion Recognition in Conversation with Sequential
Prototypical Networks
- Title(参考訳): 逐次プロトタイプネットワークとの対話におけるFew-Shot感情認識
- Authors: Ga\"el Guibon (LTCI, IP Paris), Matthieu Labeau (LTCI, IP Paris),
H\'el\`ene Flamein, Luce Lefeuvre, Chlo\'e Clavel (LTCI, IP Paris)
- Abstract要約: 私たちは、会話の流れの中で感情と彼らの進化を検出したいという、チャットのカスタマーサービスのスコープに自分自身を置きます。
これらの課題は、Few-Shot Learningを用いて、異なる言語やスパースラベルの会話感情分類に役立てることができると仮説を立てながら解決する。
本手法は、英語の日次会話とフランス語のカスタマーサービスチャットの2つの異なる言語からなるデータセットで検証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Several recent studies on dyadic human-human interactions have been done on
conversations without specific business objectives. However, many companies
might benefit from studies dedicated to more precise environments such as after
sales services or customer satisfaction surveys. In this work, we place
ourselves in the scope of a live chat customer service in which we want to
detect emotions and their evolution in the conversation flow. This context
leads to multiple challenges that range from exploiting restricted, small and
mostly unlabeled datasets to finding and adapting methods for such context.We
tackle these challenges by using Few-Shot Learning while making the hypothesis
it can serve conversational emotion classification for different languages and
sparse labels. We contribute by proposing a variation of Prototypical Networks
for sequence labeling in conversation that we name ProtoSeq. We test this
method on two datasets with different languages: daily conversations in English
and customer service chat conversations in French. When applied to emotion
classification in conversations, our method proved to be competitive even when
compared to other ones.
- Abstract(参考訳): dyadic human-human interaction(dyadic human-human interaction)に関する最近の研究は、特定のビジネス目的を持たない会話で行われている。
しかし、多くの企業は、営業サービス後や顧客満足度調査など、より正確な環境に関する研究の恩恵を受けるかもしれない。
この作業では、私たちは、会話フローにおける感情とその進化を検知したい、ライブチャットのカスタマーサービスのスコープに自分自身を置きます。
この文脈は、制限された、小さく、ラベルが付けられていないデータセットの活用から、そのようなコンテキストに対するメソッドの発見と適応に至るまで、さまざまな課題を招き、異なる言語やスパースラベルの会話感情分類に役立てることができる仮説を定めながら、Few-Shot Learningを用いてこれらの課題に取り組む。
本稿では,ProtoSeqと命名した会話におけるシーケンスラベリングのためのプロトタイプネットワークのバリエーションを提案する。
英語での日常会話とフランス語のカスタマサービスチャット会話の2つのデータセットでこの手法をテストした。
会話における感情分類に適用すると,他の会話と比較しても,この手法は競争力があることが判明した。
関連論文リスト
- Self-Directed Turing Test for Large Language Models [56.64615470513102]
チューリングテストは、自然言語の会話においてAIが人間のような振る舞いを示すことができるかどうかを調べる。
従来のチューリングテストでは、各参加者が1回に1つのメッセージだけを送信する厳格な対話形式を採用している。
本稿では,バーストダイアログ形式を用いた自己指示チューリングテストを提案する。
論文 参考訳(メタデータ) (2024-08-19T09:57:28Z) - LastResort at SemEval-2024 Task 3: Exploring Multimodal Emotion Cause Pair Extraction as Sequence Labelling Task [3.489826905722736]
SemEval 2024は会話におけるマルチモーダル感情原因分析のタスクを導入している。
本稿では,この課題を発話ラベリングとシーケンスラベリングの問題として扱うモデルを提案する。
このタスクの公式リーダーボードでは、私たちのアーキテクチャは8位にランクされ、リーダーボードのF1スコアは0.1759でした。
論文 参考訳(メタデータ) (2024-04-02T16:32:49Z) - Searching for Snippets of Open-Domain Dialogue in Task-Oriented Dialogue
Datasets [0.0]
chit-chat/open domainダイアログは、ユーザとのソーシャルな会話に重点を置いている。
タスク指向の対話は、レストランの予約や飛行機のチケットの予約など、機能目標を表現する。
本研究は,ソーシャルトークに関連するシーケンスが自然に存在することを示し,chitchatをタスク指向対話に組み込む方法に関するさらなる研究を動機付けている。
論文 参考訳(メタデータ) (2023-11-23T16:08:39Z) - EmoTwiCS: A Corpus for Modelling Emotion Trajectories in Dutch Customer
Service Dialogues on Twitter [9.2878798098526]
本稿では,情緒トラジェクトリに注釈を付けた9,489件のオランダの顧客サービス対話コーパスであるEmoTwiCSを紹介する。
感情軌跡」という用語は、顧客の体験したきめ細かい感情だけでなく、会話の前に起きる出来事や人間の操作者による反応も指している。
論文 参考訳(メタデータ) (2023-10-10T11:31:11Z) - End-to-End Continuous Speech Emotion Recognition in Real-life Customer
Service Call Center Conversations [0.0]
本稿では,顧客サービスコールセンタ会話における連続SERのための大規模実生活データセット(CusEmo)を構築するためのアプローチを提案する。
我々は,実生活におけるコールセンター会話における感情の微妙さ,複雑さ,継続性を捉えるために,次元的感情アノテーションアプローチを採用した。
この研究は、データセットへのEnd-to-End (E2E) SERシステムの適用中に発生する課題にも対処している。
論文 参考訳(メタデータ) (2023-10-02T11:53:48Z) - Multiscale Contextual Learning for Speech Emotion Recognition in
Emergency Call Center Conversations [4.297070083645049]
本稿では,音声感情認識のためのマルチスケール会話文脈学習手法を提案する。
音声の書き起こしと音響セグメントの両方について,本手法について検討した。
我々のテストによると、過去のトークンから派生したコンテキストは、以下のトークンよりも正確な予測に大きな影響を及ぼす。
論文 参考訳(メタデータ) (2023-08-28T20:31:45Z) - PLACES: Prompting Language Models for Social Conversation Synthesis [103.94325597273316]
我々は、プロンプトを用いてソーシャルな会話データセットを合成するために、専門家による会話の小さなセットをコンテキスト内例として使用します。
人工会話の徹底的な評価を,人間による会話と比較して行った。
論文 参考訳(メタデータ) (2023-02-07T05:48:16Z) - Knowledge-Grounded Conversational Data Augmentation with Generative
Conversational Networks [76.11480953550013]
生成会話ネットワークを用いて会話データを自動的に生成する。
我々は、Topical Chatデータセット上で、知識のない会話に対するアプローチを評価した。
論文 参考訳(メタデータ) (2022-07-22T22:37:14Z) - Chat-Capsule: A Hierarchical Capsule for Dialog-level Emotion Analysis [70.98130990040228]
本稿では,発話レベルと対話レベルの両方の感情とその相互関係をモデル化したコンテキストベースの階層的注意カプセル(Chat-Capsule)モデルを提案する。
Eコマースプラットフォームの顧客サポートから収集したダイアログデータセットでは,ユーザの満足度や感情曲線のカテゴリも予測できる。
論文 参考訳(メタデータ) (2022-03-23T08:04:30Z) - Training Conversational Agents with Generative Conversational Networks [74.9941330874663]
我々は、生成会話ネットワークを使用して、自動的にデータを生成し、社会的会話エージェントを訓練する。
自動メトリクスと人的評価器を用いてTopicalChatのアプローチを評価し、10%のシードデータで100%のデータを使用するベースラインに近いパフォーマンスを示す。
論文 参考訳(メタデータ) (2021-10-15T21:46:39Z) - COSMIC: COmmonSense knowledge for eMotion Identification in
Conversations [95.71018134363976]
我々は,心的状態,出来事,因果関係など,常識の異なる要素を取り入れた新しい枠組みであるCOSMICを提案する。
我々は,COSMICが4つのベンチマークの会話データセット上で,感情認識のための最新の結果を実現することを示す。
論文 参考訳(メタデータ) (2020-10-06T15:09:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。