論文の概要: Context-Dependent Embedding Utterance Representations for Emotion
Recognition in Conversations
- arxiv url: http://arxiv.org/abs/2304.08216v1
- Date: Mon, 17 Apr 2023 12:37:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-18 15:27:33.175522
- Title: Context-Dependent Embedding Utterance Representations for Emotion
Recognition in Conversations
- Title(参考訳): 会話における感情認識のための文脈依存埋め込み発話表現
- Authors: Patr\'icia Pereira, Helena Moniz, Isabel Dias and Joao Paulo Carvalho
- Abstract要約: 会話における感情認識(ERC)は、会話エージェントがより一般的になるにつれて、ますます重要になっている。
本稿では,言語モデルの文脈的パワーを活用して,各発話の文脈依存的な埋め込み表現を提案する。
提案手法はオープンドメインのDailyDialogデータセットとタスク指向のEmoWOZデータセットで検証される。
- 参考スコア(独自算出の注目度): 1.8126187844654875
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Emotion Recognition in Conversations (ERC) has been gaining increasing
importance as conversational agents become more and more common. Recognizing
emotions is key for effective communication, being a crucial component in the
development of effective and empathetic conversational agents. Knowledge and
understanding of the conversational context are extremely valuable for
identifying the emotions of the interlocutor. We thus approach Emotion
Recognition in Conversations leveraging the conversational context, i.e.,
taking into attention previous conversational turns. The usual approach to
model the conversational context has been to produce context-independent
representations of each utterance and subsequently perform contextual modeling
of these. Here we propose context-dependent embedding representations of each
utterance by leveraging the contextual representational power of pre-trained
transformer language models. In our approach, we feed the conversational
context appended to the utterance to be classified as input to the RoBERTa
encoder, to which we append a simple classification module, thus discarding the
need to deal with context after obtaining the embeddings since these constitute
already an efficient representation of such context. We also investigate how
the number of introduced conversational turns influences our model performance.
The effectiveness of our approach is validated on the widely used open-domain
DailyDialog dataset and on the task-oriented EmoWOZ dataset, for which we
attain state-of-the-art results, surpassing ERC models also resorting to
RoBERTa but with more complex classification modules, indicating that our
context-dependent embedding utterance representation approach with a simple
classification model can be more effective than context-independent utterance
representation approaches with more complex classification modules.
- Abstract(参考訳): 会話エージェントがますます一般的になるにつれて、会話における感情認識(erc)の重要性が高まっている。
感情を認識することは効果的なコミュニケーションの鍵であり、効果的で共感的な会話エージェントの開発において重要な要素である。
会話的文脈の知識と理解は、対話者の感情を特定する上で非常に有用である。
そこで我々は,会話における感情認識に,会話の文脈,すなわち以前の会話のターンに注意を払ってアプローチする。
会話的文脈をモデル化するための一般的なアプローチは、各発話の文脈に依存しない表現を生成し、それに続く文脈的モデリングを行うことである。
本稿では,事前学習されたトランスフォーマ言語モデルの文脈表現力を活用して,各発話の文脈依存埋め込み表現を提案する。
提案手法では,RoBERTaエンコーダに入力として分類される発話に付加される会話コンテキストをフィードし,簡単な分類モジュールを付加する。
また,導入した会話回転数がモデル性能に与える影響についても検討した。
The effectiveness of our approach is validated on the widely used open-domain DailyDialog dataset and on the task-oriented EmoWOZ dataset, for which we attain state-of-the-art results, surpassing ERC models also resorting to RoBERTa but with more complex classification modules, indicating that our context-dependent embedding utterance representation approach with a simple classification model can be more effective than context-independent utterance representation approaches with more complex classification modules.
関連論文リスト
- Context Does Matter: Implications for Crowdsourced Evaluation Labels in Task-Oriented Dialogue Systems [57.16442740983528]
クラウドソースラベルは、タスク指向の対話システムを評価する上で重要な役割を果たす。
従来の研究では、アノテーションプロセスで対話コンテキストの一部だけを使用することが提案されている。
本研究では,対話文脈がアノテーション品質に及ぼす影響について検討する。
論文 参考訳(メタデータ) (2024-04-15T17:56:39Z) - Token Trails: Navigating Contextual Depths in Conversational AI with ChatLLM [0.5743699972363359]
Token Trailsは、トークンタイプの埋め込みを利用して会話内のコンテキストニュアンスをナビゲートする、新しいアプローチである。
本フレームワークはトークン型埋め込みを利用して,ユーザの発話とボット応答を区別し,コンテキスト認識応答の生成を容易にする。
論文 参考訳(メタデータ) (2024-04-03T02:11:39Z) - Paralinguistics-Enhanced Large Language Modeling of Spoken Dialogue [71.15186328127409]
パラリンGPT(Paralin GPT)
モデルは、シリアライズされたマルチタスクフレームワーク内の入力プロンプトとして、テキスト、音声埋め込み、およびパラ言語属性の会話コンテキストを取る。
音声対話データセットとして,感情ラベルをパラ言語属性として含むSwitchboard-1コーパスを利用する。
論文 参考訳(メタデータ) (2023-12-23T18:14:56Z) - Multiscale Contextual Learning for Speech Emotion Recognition in
Emergency Call Center Conversations [4.297070083645049]
本稿では,音声感情認識のためのマルチスケール会話文脈学習手法を提案する。
音声の書き起こしと音響セグメントの両方について,本手法について検討した。
我々のテストによると、過去のトークンから派生したコンテキストは、以下のトークンよりも正確な予測に大きな影響を及ぼす。
論文 参考訳(メタデータ) (2023-08-28T20:31:45Z) - deep learning of segment-level feature representation for speech emotion
recognition in conversations [9.432208348863336]
そこで本稿では,意図的文脈依存と話者感応的相互作用をキャプチャする対話型音声感情認識手法を提案する。
まず、事前訓練されたVGGishモデルを用いて、個々の発話におけるセグメントベース音声表現を抽出する。
第2に、注意的双方向リカレントユニット(GRU)は、文脈に敏感な情報をモデル化し、話者内および話者間依存関係を共同で探索する。
論文 参考訳(メタデータ) (2023-02-05T16:15:46Z) - Channel-aware Decoupling Network for Multi-turn Dialogue Comprehension [81.47133615169203]
本稿では,PrLMの逐次文脈化を超えて,発話間の包括的相互作用のための合成学習を提案する。
私たちは、モデルが対話ドメインに適応するのを助けるために、ドメイン適応型トレーニング戦略を採用しています。
実験の結果,提案手法は4つの公開ベンチマークデータセットにおいて,強力なPrLMベースラインを著しく向上させることがわかった。
論文 参考訳(メタデータ) (2023-01-10T13:18:25Z) - FCTalker: Fine and Coarse Grained Context Modeling for Expressive
Conversational Speech Synthesis [75.74906149219817]
Conversational Text-to-Speech (TTS) は、会話の文脈において、適切な言語的・感情的な韻律で発話を合成することを目的としている。
本稿では, 音声生成時に, 微細で粗い文脈依存性を同時に学習する, FCTalkerと呼ばれる新しい表現型会話型TSモデルを提案する。
論文 参考訳(メタデータ) (2022-10-27T12:20:20Z) - Emotion Dynamics Modeling via BERT [7.3785751096660555]
対話型感情ダイナミクスのインターロケータ間およびインターロケータ間依存性をキャプチャするBERTベースの一連のモデルを開発する。
提案したモデルはそれぞれ,最先端のベースラインよりも約5%,10%改善できる。
論文 参考訳(メタデータ) (2021-04-15T05:58:48Z) - AdCOFE: Advanced Contextual Feature Extraction in Conversations for
emotion classification [0.29360071145551075]
提案したAdCOFE(Advanced Contextual Feature extract)モデルはこれらの問題に対処する。
会話データセットにおける感情認識の実験は、AdCOFEが会話中の感情のキャプチャに有益であることを示しています。
論文 参考訳(メタデータ) (2021-04-09T17:58:19Z) - Dialogue History Matters! Personalized Response Selectionin Multi-turn
Retrieval-based Chatbots [62.295373408415365]
本稿では,コンテキスト応答マッチングのためのパーソナライズドハイブリッドマッチングネットワーク(phmn)を提案する。
1) ユーザ固有の対話履歴からパーソナライズされた発話行動を付加的なマッチング情報として抽出する。
ユーザ識別による2つの大規模データセット,すなわちパーソナライズされた対話 Corpus Ubuntu (P-Ubuntu) とパーソナライズされたWeiboデータセット (P-Weibo) のモデルを評価する。
論文 参考訳(メタデータ) (2021-03-17T09:42:11Z) - Filling the Gap of Utterance-aware and Speaker-aware Representation for
Multi-turn Dialogue [76.88174667929665]
マルチターン対話は、2つ以上の異なる話者の役割から複数の発話からなる。
既存の検索に基づくマルチターン対話モデルでは、事前訓練された言語モデル(PrLM)をエンコーダとして、対話を粗く表現する。
本稿では,対話履歴に係わる効果的な発話認識表現と話者認識表現をモデル化することにより,そのようなギャップを埋める新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-09-14T15:07:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。