論文の概要: Deep Emotion Recognition in Textual Conversations: A Survey
- arxiv url: http://arxiv.org/abs/2211.09172v1
- Date: Wed, 16 Nov 2022 19:42:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 15:17:22.093698
- Title: Deep Emotion Recognition in Textual Conversations: A Survey
- Title(参考訳): テキスト会話における深部感情認識 : 調査
- Authors: Patr\'icia Pereira, Helena Moniz and Joao Paulo Carvalho
- Abstract要約: 新しいアプリケーションと実装シナリオは、新しい課題と機会を示します。
これらは会話の文脈、話者と感情のダイナミクスのモデリング、一般的な感覚表現の解釈など多岐にわたる。
- 参考スコア(独自算出の注目度): 2.0372018623826302
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While Emotion Recognition in Conversations (ERC) has seen a tremendous
advancement in the last few years, new applications and implementation
scenarios present novel challenges and opportunities. These range from
leveraging the conversational context, speaker and emotion dynamics modelling,
to interpreting common sense expressions, informal language and sarcasm,
addressing challenges of real time ERC and recognizing emotion causes. This
survey starts by introducing ERC, elaborating on the challenges and
opportunities pertaining to this task. It proceeds with a description of the
main emotion taxonomies and methods to deal with subjectivity in annotations.
It then describes Deep Learning methods relevant for ERC, word embeddings, and
elaborates on the use of performance metrics for the task and methods to deal
with the typically unbalanced ERC datasets. This is followed by a description
and benchmark of key ERC works along with comprehensive tables comparing
several works regarding their methods and performance across different
datasets. The survey highlights the advantage of leveraging techniques to
address unbalanced data, the exploration of mixed emotions and the benefits of
incorporating annotation subjectivity in the learning phase.
- Abstract(参考訳): 会話における感情認識(erc)はここ数年で飛躍的な進歩を遂げてきたが、新しいアプリケーションや実装シナリオは新たな挑戦と機会をもたらしている。
会話的コンテキスト、話者および感情のダイナミクスモデリングの活用から、常識表現、非公式言語および皮肉の解釈、リアルタイムのercの課題への対処、感情原因の認識まで幅広い。
この調査はERCの導入から始まり、このタスクに関連する課題と機会について検討する。
注釈における主観性を扱うための主要な感情分類学と方法の説明が続く。
次に、ercや単語埋め込みに関連するディープラーニングメソッドを説明し、通常バランスのとれないercデータセットを扱うタスクやメソッドのパフォーマンスメトリクスの使用について詳しく説明する。
続いて、キーercの作業の説明とベンチマークと、それらのメソッドと異なるデータセット間のパフォーマンスに関するいくつかの作業を比較する総合的なテーブルが続く。
この調査は、不均衡なデータに対処するテクニックを活用することの利点、混合感情の探求、学習段階にアノテーションの主観性を導入することの利点を強調している。
関連論文リスト
- BiosERC: Integrating Biography Speakers Supported by LLMs for ERC Tasks [2.9873893715462176]
本研究は,会話における話者特性を調査するBiosERCという新しいフレームワークを紹介する。
本研究では,Large Language Models (LLMs) を用いて,会話中の話者の「生体情報」を抽出する。
提案手法は,3つの有名なベンチマークデータセットを用いて,最先端のSOTA(State-of-the-art)結果を得た。
論文 参考訳(メタデータ) (2024-07-05T06:25:34Z) - LangSuitE: Planning, Controlling and Interacting with Large Language Models in Embodied Text Environments [70.91258869156353]
テキストエンボディの世界における6つの代表的具体的タスクを特徴とする多目的・シミュレーション不要なテストベッドであるLangSuitEを紹介する。
以前のLLMベースのテストベッドと比較すると、LangSuitEは複数のシミュレーションエンジンを使わずに、多様な環境への適応性を提供する。
具体化された状態の履歴情報を要約した新しいチェーン・オブ・ソート(CoT)スキーマであるEmMemを考案する。
論文 参考訳(メタデータ) (2024-06-24T03:36:29Z) - Narrative Action Evaluation with Prompt-Guided Multimodal Interaction [60.281405999483]
ナラティブ・アクション・アセスメント(NAE)は、行動の実行を評価する専門家のコメントを作成することを目的としている。
NAEは、物語の柔軟性と評価の厳格さの両方を必要とするため、より困難なタスクです。
本稿では,様々な情報モダリティ間のインタラクションを容易にするための,プロンプト誘導型マルチモーダルインタラクションフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-22T17:55:07Z) - Context-Aware Siamese Networks for Efficient Emotion Recognition in Conversation [1.1095648823126325]
本稿では,メトリクス学習訓練戦略に組み込む会話コンテキストをモデル化する手法を提案する。
対話における感情分類のためのマクロF1スコアの57.71を,Siamese Networkアーキテクチャによるメトリック学習を用いて獲得する。
論文 参考訳(メタデータ) (2024-04-17T07:36:40Z) - Understanding Before Recommendation: Semantic Aspect-Aware Review Exploitation via Large Language Models [53.337728969143086]
レコメンデーションシステムは、クリックやレビューのようなユーザとイテムのインタラクションを利用して表現を学習する。
従来の研究では、様々な側面や意図にまたがるユーザの嗜好をモデル化することで、推奨精度と解釈可能性を改善する。
そこで本研究では,意味的側面と認識的相互作用を明らかにするためのチェーンベースのプロンプト手法を提案する。
論文 参考訳(メタデータ) (2023-12-26T15:44:09Z) - Improved Contextual Recognition In Automatic Speech Recognition Systems
By Semantic Lattice Rescoring [4.819085609772069]
本稿では,意味的格子処理によるASRシステム内における文脈認識の高度化のための新しい手法を提案する。
提案手法は,隠れマルコフモデルとガウス混合モデル(HMM-GMM)とディープニューラルネットワーク(DNN)モデルを用いて,精度を向上する。
本稿では,実験分析によるLibriSpeechデータセット上でのフレームワークの有効性を示す。
論文 参考訳(メタデータ) (2023-10-14T23:16:05Z) - InstructERC: Reforming Emotion Recognition in Conversation with Multi-task Retrieval-Augmented Large Language Models [9.611864685207056]
本稿では,識別的枠組みから大規模言語モデル(LLM)に基づく生成的枠組みへ,感情認識タスクを再構築するための新しいアプローチであるインストラクタCを提案する。
InstructERCは、3つの重要な貢献をしている:(1)モデルがマルチグラニュラリティ対話監視情報を明示的に統合するのに役立つ単純で効果的なテンプレートモジュール、(2)話者識別と感情予測タスクという2つの追加の感情アライメントタスクを導入し、会話における対話の役割の関係と将来の感情傾向を暗黙的にモデル化する。
論文 参考訳(メタデータ) (2023-09-21T09:22:07Z) - 'What are you referring to?' Evaluating the Ability of Multi-Modal
Dialogue Models to Process Clarificational Exchanges [65.03196674816772]
参照表現が宛先に対して意図された参照を一意に識別しない場合、参照の曖昧さが対話で生じる。
出席者は、通常、そのような曖昧さをすぐに検知し、メタコミュニケーション、明確化取引所(CE: Meta-communicative, Clarification Exchanges)を使用して、話者と作業する。
ここでは、CRを生成・応答する能力は、マルチモーダルな視覚的基盤を持つ対話モデルのアーキテクチャと目的関数に特定の制約を課していると論じる。
論文 参考訳(メタデータ) (2023-07-28T13:44:33Z) - Contextual Information and Commonsense Based Prompt for Emotion
Recognition in Conversation [14.651642872901496]
会話における感情認識(Emotion Recognition in conversation,ERC)は、ある会話における発話ごとの感情を検出することを目的としている。
近年のERCモデルは、事前学習と微調整のパラダイムを取り入れた事前学習言語モデル(PLM)を活用して、優れた性能を実現している。
本稿では,命令モデルと言語モデル(LM)チューニングの新しいパラダイムを取り入れた新しいERCモデルCISPERを提案する。
論文 参考訳(メタデータ) (2022-07-27T02:34:05Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - Learning an Effective Context-Response Matching Model with
Self-Supervised Tasks for Retrieval-based Dialogues [88.73739515457116]
我々は,次のセッション予測,発話復元,不整合検出,一貫性判定を含む4つの自己教師型タスクを導入する。
我々はPLMに基づく応答選択モデルとこれらの補助タスクをマルチタスク方式で共同で訓練する。
実験結果から,提案した補助的自己教師型タスクは,多ターン応答選択において大きな改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-09-14T08:44:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。