論文の概要: A Bi-directional Multi-hop Inference Model for Joint Dialog Sentiment
Classification and Act Recognition
- arxiv url: http://arxiv.org/abs/2308.04424v1
- Date: Tue, 8 Aug 2023 17:53:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-09 11:47:24.238694
- Title: A Bi-directional Multi-hop Inference Model for Joint Dialog Sentiment
Classification and Act Recognition
- Title(参考訳): 共同対話感覚分類と行為認識のための双方向マルチホップ推論モデル
- Authors: Li Zheng, Fei Li, Yuyang Chai, Chong Teng, Donghong Ji
- Abstract要約: ダイアログ知覚分類(DSC)とアクト認識(DAR)の併用作業は,ダイアログ中の各発話に対する感情ラベルと行動ラベルを同時に予測することを目的としている。
本稿では,リッチな感情を反復的に抽出・統合し,双方向で手掛かりを行動させる双方向マルチホップ推論モデル(BMIM)を提案する。
BMIMは、DARのF1スコアで少なくとも2.6%、DSCのF1スコアで1.4%、最先端のベースラインを上回っている。
- 参考スコア(独自算出の注目度): 26.758821572240883
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The joint task of Dialog Sentiment Classification (DSC) and Act Recognition
(DAR) aims to predict the sentiment label and act label for each utterance in a
dialog simultaneously. However, current methods encode the dialog context in
only one direction, which limits their ability to thoroughly comprehend the
context. Moreover, these methods overlook the explicit correlations between
sentiment and act labels, which leads to an insufficient ability to capture
rich sentiment and act clues and hinders effective and accurate reasoning. To
address these issues, we propose a Bi-directional Multi-hop Inference Model
(BMIM) that leverages a feature selection network and a bi-directional
multi-hop inference network to iteratively extract and integrate rich sentiment
and act clues in a bi-directional manner. We also employ contrastive learning
and dual learning to explicitly model the correlations of sentiment and act
labels. Our experiments on two widely-used datasets show that BMIM outperforms
state-of-the-art baselines by at least 2.6% on F1 score in DAR and 1.4% on F1
score in DSC. Additionally, Our proposed model not only improves the
performance but also enhances the interpretability of the joint sentiment and
act prediction task.
- Abstract(参考訳): ダイアログ知覚分類(DSC)とアクト認識(DAR)の併用作業は,ダイアログ中の各発話に対する感情ラベルと行動ラベルを同時に予測することを目的としている。
しかし、現在のメソッドはダイアログコンテキストを1つの方向だけエンコードしており、コンテキストを完全に理解する能力が制限されている。
さらに、これらの手法は、感情と行動ラベルの明確な相関を見落とし、リッチな感情を捉え、手がかりを行動させ、効果的で正確な推論を妨げる能力に乏しい。
これらの問題に対処するために,特徴選択ネットワークと双方向マルチホップ推論ネットワークを活用した双方向マルチホップ推論モデル(bmim)を提案する。
また,感情と行動ラベルの相関を明示的にモデル化するために,コントラスト学習と二重学習を用いる。
DARのF1スコアは少なくとも2.6%,DSCのF1スコアは1.4%,BMIMは最先端のベースラインよりも優れていた。
さらに,提案モデルでは,パフォーマンスの向上だけでなく,共同感情と行動予測タスクの解釈可能性の向上も図っている。
関連論文リスト
- PanoSent: A Panoptic Sextuple Extraction Benchmark for Multimodal Conversational Aspect-based Sentiment Analysis [74.41260927676747]
本稿では,マルチモーダル対話感分析(ABSA)を導入することでギャップを埋める。
タスクをベンチマークするために、手動と自動の両方で注釈付けされたデータセットであるPanoSentを構築し、高品質、大規模、マルチモーダル、マルチ言語主義、マルチシナリオを特徴とし、暗黙の感情要素と明示的な感情要素の両方をカバーする。
課題を効果的に解決するために,新しい多モーダルな大規模言語モデル(すなわちSentica)とパラフレーズベースの検証機構とともに,新しい感覚の連鎖推論フレームワークを考案した。
論文 参考訳(メタデータ) (2024-08-18T13:51:01Z) - Two in One Go: Single-stage Emotion Recognition with Decoupled Subject-context Transformer [78.35816158511523]
単段階の感情認識手法として,DSCT(Decoupled Subject-Context Transformer)を用いる。
広範に使われている文脈認識型感情認識データセットであるCAER-SとEMOTICの単段階フレームワークの評価を行った。
論文 参考訳(メタデータ) (2024-04-26T07:30:32Z) - Unifying the Discrete and Continuous Emotion labels for Speech Emotion
Recognition [28.881092401807894]
音声からの感情検出のためのパラ言語分析では、感情は離散的または次元的(連続的な評価)ラベルと同一視されている。
本研究では,連続的感情特性と離散的感情特性を共同で予測するモデルを提案する。
論文 参考訳(メタデータ) (2022-10-29T16:12:31Z) - A Universality-Individuality Integration Model for Dialog Act
Classification [0.0]
対話法(DA)は、会話における話者発話の一般的な意図を明らかにする。
本稿では, 単語キュー, パート・オブ・音声キュー, 統計キューが相互に補完し, 認識基盤を改善することを示唆する。
We propose a novel model based on universality and individuality strategy, called Universality-Individuality Integration Model (UIIM)。
論文 参考訳(メタデータ) (2022-04-13T06:05:34Z) - DARER: Dual-task Temporal Relational Recurrent Reasoning Network for
Joint Dialog Sentiment Classification and Act Recognition [39.76268402567324]
共同ダイアログ感情分類(DSC)と行動認識(DAR)の課題は、ダイアログの各発話に対する感情ラベルと行動ラベルを同時に予測することである。
我々は,テキスト予測レベルのインタラクションを統合することで,明示的な依存関係をモデル化する新しいフレームワークを提唱した。
そこで本研究では,まず,文脈,話者,時間に敏感な発話表現を生成するDARERという新しいモデルを提案する。
論文 参考訳(メタデータ) (2022-03-08T05:19:18Z) - Few-Shot Fine-Grained Action Recognition via Bidirectional Attention and
Contrastive Meta-Learning [51.03781020616402]
現実世界のアプリケーションで特定のアクション理解の需要が高まっているため、きめ細かいアクション認識が注目を集めている。
そこで本研究では,各クラスに付与されるサンプル数だけを用いて,新規なきめ細かい動作を認識することを目的とした,数発のきめ細かな動作認識問題を提案する。
粒度の粗い動作では進展があったが、既存の数発の認識手法では、粒度の細かい動作を扱う2つの問題に遭遇する。
論文 参考訳(メタデータ) (2021-08-15T02:21:01Z) - Context-Aware Interaction Network for Question Matching [51.76812857301819]
本研究では,二つのシーケンスを整合させ,それらの意味関係を推定する文脈認識インタラクションネットワーク(coin)を提案する。
具体的には,(1)コンテキスト情報を効果的に統合するためのコンテキスト対応のクロスアテンション機構,(2)整列表現を柔軟に補間するゲート融合層を備える。
論文 参考訳(メタデータ) (2021-04-17T05:03:56Z) - Opinion Transmission Network for Jointly Improving Aspect-oriented
Opinion Words Extraction and Sentiment Classification [56.893393134328996]
アスペクトレベルの感情分類(ALSC)とアスペクト指向の意見単語抽出(AOWE)は、アスペクトベースの感情分析の2つのサブタスクである。
本稿では,ALSC と AOWE の橋梁を利用した新しい接続モデル Opinion Transmission Network (OTN) を提案する。
論文 参考訳(メタデータ) (2020-11-01T11:00:19Z) - DCR-Net: A Deep Co-Interactive Relation Network for Joint Dialog Act
Recognition and Sentiment Classification [77.59549450705384]
ダイアログシステムでは、ダイアログアクト認識と感情分類は2つの相関タスクである。
既存のシステムのほとんどは、それらを別々のタスクとして扱うか、単に2つのタスクを一緒にモデル化するだけです。
本稿では,2つのタスク間の相互作用をモデル化するディープ・コ・インタラクティブ・リレーショナル・ネットワーク(DCR-Net)を提案する。
論文 参考訳(メタデータ) (2020-08-16T14:13:32Z) - Cross-lingual Approaches for Task-specific Dialogue Act Recognition [1.8352113484137629]
言語間モデルを利用して、少数のアノテーションで特定のタスクに対する対話行動認識を可能にする。
対話行動認識のための伝達学習手法を設計し、2つの異なる言語とドメインで検証する。
論文 参考訳(メタデータ) (2020-05-19T07:44:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。