論文の概要: A Discourse Aware Sequence Learning Approach for Emotion Recognition in
Conversations
- arxiv url: http://arxiv.org/abs/2203.16799v2
- Date: Fri, 1 Apr 2022 04:38:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-04 11:07:49.045273
- Title: A Discourse Aware Sequence Learning Approach for Emotion Recognition in
Conversations
- Title(参考訳): 会話における感情認識のための談話認識シーケンス学習アプローチ
- Authors: Sreyan Ghosh, Harshvardhan Srivastava and S. Umesh
- Abstract要約: 本稿では,本モデルが最先端技術に競争力を持たせることを示し,文献における他のグラフベースの手法よりも優れた性能を示す。
コードはすべてGitHubで公開しています。
- 参考スコア(独自算出の注目度): 1.2031796234206138
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The expression of emotions is a crucial part of daily human communication.
Modeling the conversational and sequential context has seen much success and
plays a vital role in Emotion Recognition in Conversations (ERC). However,
existing approaches either model only one of the two or employ naive
late-fusion methodologies to obtain final utterance representations. This paper
proposes a novel idea to incorporate both these contexts and better model the
intrinsic structure within a conversation. More precisely, we propose a novel
architecture boosted by a modified LSTM cell, which we call DiscLSTM, that
better captures the interaction between conversational and sequential context.
DiscLSTM brings together the best of both worlds and provides a more intuitive
and efficient way to model the information flow between individual utterances
by better capturing long-distance conversational background through discourse
relations and sequential context through recurrence. We conduct experiments on
four benchmark datasets for ERC and show that our model achieves performance
competitive to state-of-the-art and at times performs better than other
graph-based approaches in literature, with a conversational graph that is both
sparse and avoids complicated edge relations like much of previous work. We
make all our codes publicly available on GitHub.
- Abstract(参考訳): 感情の表現は人間の日常コミュニケーションの重要な部分である。
会話とシーケンシャルな文脈のモデリングは成功し、会話における感情認識(ERC)において重要な役割を果たす。
しかし、既存のアプローチは2つのうちの1つしかモデル化せず、最終的な発話表現を得るために単純なレイトフュージョン手法を用いている。
本稿では,これらの文脈を取り入れ,会話内の内在的構造をより良くモデル化する新しいアイデアを提案する。
より正確には、DCDLSTMと呼ばれる改良LSTMセルによって強化された新しいアーキテクチャを提案し、会話コンテキストとシーケンシャルコンテキストの相互作用をよりよくキャプチャする。
disclstmは、両方の世界のベストをまとめ、会話関係を通じて長距離会話の背景をよりよく捉え、繰り返しを通じてシーケンシャルなコンテキストを捉えることにより、個々の発話間の情報フローをより直感的で効率的な方法でモデル化する。
ERCのための4つのベンチマークデータセットの実験を行い、我々のモデルが最先端と競合する性能を達成し、時には他の文献のグラフベースのアプローチよりも優れた性能を発揮することを示す。
すべてのコードをgithubで公開しています。
関連論文リスト
- How do Large Language Models Handle Multilingualism? [87.06210331315451]
大規模言語モデル(LLM)は、様々な言語で顕著な性能を示す。
LLMの多言語入力処理を記述したフレームワークを提案する。
さらに,特定の言語処理における言語特異的ニューロンの存在について検討する。
論文 参考訳(メタデータ) (2024-02-29T02:55:26Z) - CLARA: Multilingual Contrastive Learning for Audio Representation
Acquisition [5.520654376217889]
CLARAはラベル付きデータへの依存を最小限に抑え、言語間の一般化を強化する。
我々のアプローチは、主観的評価問題を克服し、音声における感情的ニュアンスを十分に捉えている。
低リソース言語に適応し、多言語音声表現学習の進歩を示す。
論文 参考訳(メタデータ) (2023-10-18T09:31:56Z) - LVP-M3: Language-aware Visual Prompt for Multilingual Multimodal Machine
Translation [94.33019040320507]
マルチモーダル機械翻訳(MMT)は、視覚的特徴を持つテキストのみの翻訳を強化することに焦点を当てている。
最近の進歩は、各言語ペアごとに別々のモデルをトレーニングすることに苦慮している。
7つの言語をカバーする2つのMultilingual MMTベンチマークデータセットを確立することで,Multilingual MMTタスクを提案する。
論文 参考訳(メタデータ) (2022-10-19T12:21:39Z) - Multi2WOZ: A Robust Multilingual Dataset and Conversational Pretraining
for Task-Oriented Dialog [67.20796950016735]
Multi2WOZデータセットは、中国語、ドイツ語、アラビア語、ロシア語の4つの言語にまたがる。
本稿では,任意の下流TODタスクに対する言語間移動を容易にすることを目的とした,事前学習言語モデル(PrLM)の多言語会話特化のための新しいフレームワークを提案する。
実験の結果,目標言語における(I)会話の特殊化と,(II)具体的なTODタスクのための少数ショット転送の組み合わせが,ほとんどの場合,最高の性能を示すことがわかった。
論文 参考訳(メタデータ) (2022-05-20T18:35:38Z) - Challenges and Considerations with Code-Mixed NLP for Multilingual
Societies [1.6675267471157407]
本稿では,NLP研究の現状,限界,予測可能な落とし穴について論じる。
また,社会福祉のための多言語NLPアプリケーションにおける現在の研究を著しく進めることができる未来的データセット,モデル,ツールも提案する。
論文 参考訳(メタデータ) (2021-06-15T00:53:55Z) - Crossing the Conversational Chasm: A Primer on Multilingual
Task-Oriented Dialogue Systems [51.328224222640614]
大規模な学習済みニューラルネットワークモデルに基づく最新のTODモデルは、データ空腹です。
ToDのユースケースのデータ取得は高価で面倒だ。
論文 参考訳(メタデータ) (2021-04-17T15:19:56Z) - HPCC-YNU at SemEval-2020 Task 9: A Bilingual Vector Gating Mechanism for
Sentiment Analysis of Code-Mixed Text [10.057804086733576]
本稿では,バイリンガルなベクトルゲーティング機構をバイリンガルなリソースに利用してタスクを完了させるシステムを提案する。
私たちはパングリッシュで5位、ヒングリッシュで19位を獲得しました。
論文 参考訳(メタデータ) (2020-10-10T08:02:15Z) - FILTER: An Enhanced Fusion Method for Cross-lingual Language
Understanding [85.29270319872597]
我々は,XLMファインタニングの入力として言語間データを利用する拡張融合法を提案する。
推論中は、ターゲット言語で入力されたテキストとソース言語の翻訳に基づいて予測を行う。
この問題に対処するため,対象言語における翻訳テキストのための自動生成ソフト擬似ラベルに基づくモデル学習のためのKL分割自己学習損失を提案する。
論文 参考訳(メタデータ) (2020-09-10T22:42:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。