論文の概要: Multilogue-Net: A Context Aware RNN for Multi-modal Emotion Detection
and Sentiment Analysis in Conversation
- arxiv url: http://arxiv.org/abs/2002.08267v3
- Date: Mon, 22 Jun 2020 20:03:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 13:25:39.519938
- Title: Multilogue-Net: A Context Aware RNN for Multi-modal Emotion Detection
and Sentiment Analysis in Conversation
- Title(参考訳): Multilogue-Net:会話におけるマルチモーダル感情検出と感性分析のためのコンテキスト認識RNN
- Authors: Aman Shenoy and Ashish Sardana
- Abstract要約: マルチモーダル感情検出および知覚分析は特に有用である。
マルチモーダル機能を扱う現在のシステムは、会話のコンテキストを活用・捉えない。
上述した欠点をすべて考慮し,エンドツーエンドのRNNアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 2.588973722689844
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sentiment Analysis and Emotion Detection in conversation is key in several
real-world applications, with an increase in modalities available aiding a
better understanding of the underlying emotions. Multi-modal Emotion Detection
and Sentiment Analysis can be particularly useful, as applications will be able
to use specific subsets of available modalities, as per the available data.
Current systems dealing with Multi-modal functionality fail to leverage and
capture - the context of the conversation through all modalities, the
dependency between the listener(s) and speaker emotional states, and the
relevance and relationship between the available modalities. In this paper, we
propose an end to end RNN architecture that attempts to take into account all
the mentioned drawbacks. Our proposed model, at the time of writing,
out-performs the state of the art on a benchmark dataset on a variety of
accuracy and regression metrics.
- Abstract(参考訳): 会話における感情分析と感情検出は、いくつかの現実のアプリケーションにおいて重要であり、基礎となる感情をよりよく理解するためのモダリティの増加が利用可能である。
アプリケーションが利用可能なデータのように、利用可能なモダリティの特定のサブセットを使用することができるため、マルチモーダル感情検出とセンチメント分析は特に有用である。
マルチモーダル機能を扱う現在のシステムは、すべてのモダリティによる会話のコンテキスト、リスナーと話者の感情状態の依存性、利用可能なモダリティの関連性と関連性など、活用とキャプチャーに失敗している。
本稿では,上述した欠点をすべて考慮し,エンドツーエンドのRNNアーキテクチャを提案する。
論文執筆時点で提案したモデルでは,さまざまな精度と回帰指標に基づいて,ベンチマークデータセット上で技術の現状を上回ります。
関連論文リスト
- PanoSent: A Panoptic Sextuple Extraction Benchmark for Multimodal Conversational Aspect-based Sentiment Analysis [74.41260927676747]
本稿では,マルチモーダル対話感分析(ABSA)を導入することでギャップを埋める。
タスクをベンチマークするために、手動と自動の両方で注釈付けされたデータセットであるPanoSentを構築し、高品質、大規模、マルチモーダル、マルチ言語主義、マルチシナリオを特徴とし、暗黙の感情要素と明示的な感情要素の両方をカバーする。
課題を効果的に解決するために,新しい多モーダルな大規模言語モデル(すなわちSentica)とパラフレーズベースの検証機構とともに,新しい感覚の連鎖推論フレームワークを考案した。
論文 参考訳(メタデータ) (2024-08-18T13:51:01Z) - Efficient Long-distance Latent Relation-aware Graph Neural Network for Multi-modal Emotion Recognition in Conversations [8.107561045241445]
会話におけるマルチモーダル感情認識のための高効率長距離遅延関係認識グラフニューラルネットワーク(ELR-GNN)を提案する。
ELR-GNNはIEMOCAPとMELDのベンチマークで最先端のパフォーマンスを実現し、それぞれ実行時間を52%と35%削減した。
論文 参考訳(メタデータ) (2024-06-27T15:54:12Z) - Large Language Models Meet Text-Centric Multimodal Sentiment Analysis: A Survey [66.166184609616]
ChatGPTは、テキスト中心のマルチモーダルタスクに大規模言語モデル(LLM)を適用する大きな可能性を開く。
既存のLLMがテキスト中心のマルチモーダル感情分析タスクにどのように適応できるかは、まだ不明である。
論文 参考訳(メタデータ) (2024-06-12T10:36:27Z) - AIMDiT: Modality Augmentation and Interaction via Multimodal Dimension Transformation for Emotion Recognition in Conversations [57.99479708224221]
AIMDiTと呼ばれる新しいフレームワークを提案し、深い特徴のマルチモーダル融合の問題を解決する。
公開ベンチマークデータセットMELDでAIMDiTフレームワークを使用して行った実験では、Acc-7とw-F1メトリクスの2.34%と2.87%の改善が明らかにされた。
論文 参考訳(メタデータ) (2024-04-12T11:31:18Z) - Long Dialog Summarization: An Analysis [28.223798877781054]
この研究は、様々なアプリケーションにおける効果的なコミュニケーションのために、一貫性と文脈的に豊かな要約を作成することの重要性を強調している。
異なる領域における長いダイアログの要約に対する現在の最先端のアプローチについて検討し、ベンチマークに基づく評価により、異なる要約タスクのために、各領域で1つのモデルがうまく機能しないことを示す。
論文 参考訳(メタデータ) (2024-02-26T19:35:45Z) - Capturing Spectral and Long-term Contextual Information for Speech
Emotion Recognition Using Deep Learning Techniques [0.0]
本研究では,テキストデータ処理のためのグラフ畳み込みネットワーク(GCN)と,音声信号解析のためのHuBERT変換器を組み合わせたアンサンブルモデルを提案する。
GCNとHuBERTを組み合わせることで、我々のアンサンブルモデルは両方のアプローチの強みを利用することができる。
その結果, 合成モデルが従来の手法の限界を克服し, 音声からの感情認識の精度が向上することが示唆された。
論文 参考訳(メタデータ) (2023-08-04T06:20:42Z) - 'What are you referring to?' Evaluating the Ability of Multi-Modal
Dialogue Models to Process Clarificational Exchanges [65.03196674816772]
参照表現が宛先に対して意図された参照を一意に識別しない場合、参照の曖昧さが対話で生じる。
出席者は、通常、そのような曖昧さをすぐに検知し、メタコミュニケーション、明確化取引所(CE: Meta-communicative, Clarification Exchanges)を使用して、話者と作業する。
ここでは、CRを生成・応答する能力は、マルチモーダルな視覚的基盤を持つ対話モデルのアーキテクチャと目的関数に特定の制約を課していると論じる。
論文 参考訳(メタデータ) (2023-07-28T13:44:33Z) - Co-Located Human-Human Interaction Analysis using Nonverbal Cues: A
Survey [71.43956423427397]
本研究の目的は,非言語的キューと計算手法を同定し,効果的な性能を実現することである。
この調査は、最も広い範囲の社会現象と相互作用設定を巻き込むことによって、相手と異なる。
もっともよく使われる非言語キュー、計算方法、相互作用環境、センシングアプローチは、それぞれマイクとカメラを備えた3,4人で構成される会話活動、ベクターマシンのサポート、ミーティングである。
論文 参考訳(メタデータ) (2022-07-20T13:37:57Z) - M2FNet: Multi-modal Fusion Network for Emotion Recognition in
Conversation [1.3864478040954673]
視覚,音声,テキストのモダリティから感情関連特徴を抽出するマルチモーダルフュージョンネットワーク(M2FNet)を提案する。
マルチヘッドアテンションに基づく融合機構を用いて、入力データの感情に富んだ潜在表現を結合する。
提案する特徴抽出器は,音声および視覚データから感情関連特徴を学習するために,適応的マージンに基づく新しい三重項損失関数を用いて訓練される。
論文 参考訳(メタデータ) (2022-06-05T14:18:58Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - Sequential Late Fusion Technique for Multi-modal Sentiment Analysis [0.0]
我々はMOSIデータセットからテキスト、オーディオ、視覚的モーダルティを利用する。
マルチヘッドアテンションLSTMネットワークを用いた新しい融合手法を提案する。
論文 参考訳(メタデータ) (2021-06-22T01:32:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。