論文の概要: A Quantum Probability Driven Framework for Joint Multi-Modal Sarcasm,
Sentiment and Emotion Analysis
- arxiv url: http://arxiv.org/abs/2306.03650v1
- Date: Tue, 6 Jun 2023 13:08:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 15:24:23.077587
- Title: A Quantum Probability Driven Framework for Joint Multi-Modal Sarcasm,
Sentiment and Emotion Analysis
- Title(参考訳): 共同マルチモーダル・サーカズム・感情・感情分析のための量子確率駆動フレームワーク
- Authors: Yaochen Liu, Yazhou Zhang, Dawei Song
- Abstract要約: 本稿では,QUantum probabIlity によるマルチモーダルサルカム,sEntiment および emoTion 解析フレームワーク QUIET を提案する。
具体的には、QUantum probabIlityによるマルチモーダルサルカム、sEntimentおよびemoTion分析フレームワーク、QUIETを提案する。
- 参考スコア(独自算出の注目度): 8.569892414675241
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sarcasm, sentiment, and emotion are three typical kinds of spontaneous
affective responses of humans to external events and they are tightly
intertwined with each other. Such events may be expressed in multiple
modalities (e.g., linguistic, visual and acoustic), e.g., multi-modal
conversations. Joint analysis of humans' multi-modal sarcasm, sentiment, and
emotion is an important yet challenging topic, as it is a complex cognitive
process involving both cross-modality interaction and cross-affection
correlation. From the probability theory perspective, cross-affection
correlation also means that the judgments on sarcasm, sentiment, and emotion
are incompatible. However, this exposed phenomenon cannot be sufficiently
modelled by classical probability theory due to its assumption of
compatibility. Neither do the existing approaches take it into consideration.
In view of the recent success of quantum probability (QP) in modeling human
cognition, particularly contextual incompatible decision making, we take the
first step towards introducing QP into joint multi-modal sarcasm, sentiment,
and emotion analysis. Specifically, we propose a QUantum probabIlity driven
multi-modal sarcasm, sEntiment and emoTion analysis framework, termed QUIET.
Extensive experiments on two datasets and the results show that the
effectiveness and advantages of QUIET in comparison with a wide range of the
state-of-the-art baselines. We also show the great potential of QP in
multi-affect analysis.
- Abstract(参考訳): サルカズム、感情、感情は、外的出来事に対する人間の自発的な感情反応の典型的な3つのタイプであり、互いに密接に絡み合っている。
このようなイベントは複数のモダリティ(言語、視覚、音響など)、例えばマルチモーダル会話で表現することができる。
ヒトのマルチモーダルサルカズム、感情、感情の結合分析は、相互モダリティ相互作用と相互反応相関の両方を含む複雑な認知プロセスであるため、重要かつ困難なトピックである。
確率論の観点からは、交叉相関はまた、皮肉、感情、感情に関する判断が相容れないことを意味する。
しかし、この露光現象は、互換性の仮定により古典的確率論によって十分にモデル化することはできない。
既存のアプローチも考慮に入れていない。
人間の認知、特に文脈的不整合意思決定のモデル化における量子確率(QP)の最近の成功を考えると、我々は、共同マルチモーダル皮肉、感情分析、感情分析にQPを導入するための第一歩を踏み出した。
具体的には、QUantum probabIlityによるマルチモーダルサルカム、sEntimentおよびemoTion分析フレームワーク、QUIETを提案する。
2つのデータセットと結果に対する大規模な実験により、QUIETの有効性と利点が、最先端の幅広いベースラインと比較された。
また,多因子分析におけるQPの可能性を示した。
関連論文リスト
- MEMO-Bench: A Multiple Benchmark for Text-to-Image and Multimodal Large Language Models on Human Emotion Analysis [53.012111671763776]
そこで本研究では、7,145枚の肖像画からなる総合的なベンチマークであるMEMO-Benchを紹介した。
以上の結果から,既存のT2Iモデルは負のモデルよりも肯定的な感情を生成するのに効果的であることが示唆された。
MLLMは人間の感情の識別と認識に一定の効果を示すが、人間のレベルの正確さには欠ける。
論文 参考訳(メタデータ) (2024-11-18T02:09:48Z) - PanoSent: A Panoptic Sextuple Extraction Benchmark for Multimodal Conversational Aspect-based Sentiment Analysis [74.41260927676747]
本稿では,マルチモーダル対話感分析(ABSA)を導入することでギャップを埋める。
タスクをベンチマークするために、手動と自動の両方で注釈付けされたデータセットであるPanoSentを構築し、高品質、大規模、マルチモーダル、マルチ言語主義、マルチシナリオを特徴とし、暗黙の感情要素と明示的な感情要素の両方をカバーする。
課題を効果的に解決するために,新しい多モーダルな大規模言語モデル(すなわちSentica)とパラフレーズベースの検証機構とともに,新しい感覚の連鎖推論フレームワークを考案した。
論文 参考訳(メタデータ) (2024-08-18T13:51:01Z) - SemEval-2024 Task 3: Multimodal Emotion Cause Analysis in Conversations [53.60993109543582]
SemEval-2024 Task 3 "Multimodal Emotion Cause Analysis in Conversations" は、会話からすべての感情とそれに対応する原因を抽出することを目的としている。
異なるモダリティ設定の下では、2つのサブタスクから構成される: 会話におけるテキスト感情因果ペア抽出(TECPE)と会話におけるマルチモーダル感情因果ペア抽出(MECPE)である。
本稿では,タスク,データセット,評価設定について紹介し,トップチームのシステムを要約し,参加者の知見について議論する。
論文 参考訳(メタデータ) (2024-05-19T09:59:00Z) - A Multi-Task, Multi-Modal Approach for Predicting Categorical and
Dimensional Emotions [0.0]
分類的・次元的な感情を予測するマルチタスク・マルチモーダルシステムを提案する。
その結果,2種類の感情の相互規則化の重要性が強調された。
論文 参考訳(メタデータ) (2023-12-31T16:48:03Z) - Language Models (Mostly) Do Not Consider Emotion Triggers When Predicting Emotion [87.18073195745914]
人間の感情が感情の予測において有意であると考えられる特徴とどのように相関するかを検討する。
EmoTriggerを用いて、感情のトリガーを識別する大規模言語モデルの能力を評価する。
分析の結果、感情のトリガーは感情予測モデルにとって健全な特徴ではなく、様々な特徴と感情検出のタスクの間に複雑な相互作用があることが判明した。
論文 参考訳(メタデータ) (2023-11-16T06:20:13Z) - Dynamic Causal Disentanglement Model for Dialogue Emotion Detection [77.96255121683011]
隠れ変数分離に基づく動的因果解離モデルを提案する。
このモデルは、対話の内容を効果的に分解し、感情の時間的蓄積を調べる。
具体的には,発話と隠れ変数の伝搬を推定する動的時間的ゆがみモデルを提案する。
論文 参考訳(メタデータ) (2023-09-13T12:58:09Z) - Co-Located Human-Human Interaction Analysis using Nonverbal Cues: A
Survey [71.43956423427397]
本研究の目的は,非言語的キューと計算手法を同定し,効果的な性能を実現することである。
この調査は、最も広い範囲の社会現象と相互作用設定を巻き込むことによって、相手と異なる。
もっともよく使われる非言語キュー、計算方法、相互作用環境、センシングアプローチは、それぞれマイクとカメラを備えた3,4人で構成される会話活動、ベクターマシンのサポート、ミーティングである。
論文 参考訳(メタデータ) (2022-07-20T13:37:57Z) - Multi-Modal Sarcasm Detection Based on Contrastive Attention Mechanism [7.194040730138362]
本研究では、モーダリティ間コントラストアテンションに基づくSarcasm Detection(ConAttSD)モデルを構築し、モーダリティ間コントラストアテンション機構を用いて発話のコントラスト特徴を抽出する。
ベンチマークマルチモーダルサルカズムデータセットであるMUStARDに関する実験により,提案したConAttSDモデルの有効性を実証した。
論文 参考訳(メタデータ) (2021-09-30T14:17:51Z) - A Multi-Componential Approach to Emotion Recognition and the Effect of
Personality [0.0]
本稿では,映画視聴中に引き起こされた感情体験を特徴付けるために,データ駆動型アプローチによる構成的枠組みを適用した。
その結果、様々な感情の違いは、数次元(少なくとも6次元)で捉えられることが示唆された。
その結果、限定的な記述子数を持つ成分モデルでは、経験的な離散的感情のレベルを予測できることがわかった。
論文 参考訳(メタデータ) (2020-10-22T01:27:23Z) - Prediction of Human Empathy based on EEG Cortical Asymmetry [0.0]
特定の周波数帯における脳振動の側方化は、自己申告された共感スコアの重要な予測因子である。
結果は、感情の表現や認識が困難である人々を支援する脳-コンピュータインターフェースの開発に利用される。
論文 参考訳(メタデータ) (2020-05-06T13:49:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。