論文の概要: Multi-Modal Sarcasm Detection Based on Contrastive Attention Mechanism
- arxiv url: http://arxiv.org/abs/2109.15153v1
- Date: Thu, 30 Sep 2021 14:17:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-01 19:38:11.689458
- Title: Multi-Modal Sarcasm Detection Based on Contrastive Attention Mechanism
- Title(参考訳): コントラスト注意機構に基づくマルチモーダルサーカズム検出
- Authors: Xiaoqiang Zhang, Ying Chen, Guangyuan Li
- Abstract要約: 本研究では、モーダリティ間コントラストアテンションに基づくSarcasm Detection(ConAttSD)モデルを構築し、モーダリティ間コントラストアテンション機構を用いて発話のコントラスト特徴を抽出する。
ベンチマークマルチモーダルサルカズムデータセットであるMUStARDに関する実験により,提案したConAttSDモデルの有効性を実証した。
- 参考スコア(独自算出の注目度): 7.194040730138362
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the past decade, sarcasm detection has been intensively conducted in a
textual scenario. With the popularization of video communication, the analysis
in multi-modal scenarios has received much attention in recent years.
Therefore, multi-modal sarcasm detection, which aims at detecting sarcasm in
video conversations, becomes increasingly hot in both the natural language
processing community and the multi-modal analysis community. In this paper,
considering that sarcasm is often conveyed through incongruity between
modalities (e.g., text expressing a compliment while acoustic tone indicating a
grumble), we construct a Contras-tive-Attention-based Sarcasm Detection
(ConAttSD) model, which uses an inter-modality contrastive attention mechanism
to extract several contrastive features for an utterance. A contrastive feature
represents the incongruity of information between two modalities. Our
experiments on MUStARD, a benchmark multi-modal sarcasm dataset, demonstrate
the effectiveness of the proposed ConAttSD model.
- Abstract(参考訳): 過去10年間、皮肉の検出はテキストのシナリオで集中的に行われてきた。
近年,ビデオ通信の普及に伴い,マルチモーダルシナリオの解析が注目されている。
したがって,ビデオ会話におけるサーカズムの検出を目的としたマルチモーダルサーカズム検出は,自然言語処理コミュニティとマルチモーダル解析コミュニティの両方でますますホットになっている。
本稿では,モダリティ間の共和性(例えば,音声音がグラムブルを表すときに補完を表すテキスト)を通してしばしばサーカズムが伝達されることを示すことを考慮し,モーダル間の対比的注意機構を用いて発話のコントラスト的特徴を抽出し,コントラス・インタテンションに基づくサーカズム検出(conattsd)モデルを構築する。
対照的な特徴は、2つのモード間の情報の矛盾を表す。
ベンチマークマルチモーダルサルカズムデータセットであるMUStARDに関する実験により,提案したConAttSDモデルの有効性を実証した。
関連論文リスト
- A Survey of Multimodal Sarcasm Detection [32.659528422756416]
サルカスム(Sarcasm)は、発音の文字通りの意味の反対を伝達するために用いられる修辞的な装置である。
これまでに,マルチモーダルサルカズム検出に関する総合的な調査が報告されている。
論文 参考訳(メタデータ) (2024-10-24T16:17:47Z) - CofiPara: A Coarse-to-fine Paradigm for Multimodal Sarcasm Target Identification with Large Multimodal Models [14.453131020178564]
本稿では,大きめのパラダイムを持つ多目的MSTIフレームワークを提案する。
マルチモーダル推論におけるLMM(Large Multimodal Models)の強力な能力に着想を得て、まずLMMに取り組み、マルチモーダルサルカズム検出における小言語モデルの粗粒化事前学習のための競合する有理性を生成する。
そこで本稿では,LMM に内在する潜在的なノイズによる負の影響を緩和し,より微細な目標同定モデルを提案する。
論文 参考訳(メタデータ) (2024-05-01T08:44:44Z) - Sentiment-enhanced Graph-based Sarcasm Explanation in Dialogue [67.09698638709065]
本稿では,SEntiment-enhanceD Graph を用いたマルチモーダルサルカズム記述フレームワーク EDGE を提案する。
特に,まずレキシコン誘導型発話感情推論モジュールを提案し,そこでは発話感情改善戦略を考案する。
次に,マルチモーダル感情分析モデル JCA を拡張し,映像音声クリップ毎に共同感情ラベルを導出することにより,JCA-SI (Joint Cross Attention-based Sentiment Inference) というモジュールを開発する。
論文 参考訳(メタデータ) (2024-02-06T03:14:46Z) - MMoE: Enhancing Multimodal Models with Mixtures of Multimodal Interaction Experts [92.76662894585809]
MMOE(Multimodal Mixtures of Experts)と呼ばれるマルチモーダルモデルの拡張手法を導入する。
MMoEは様々な種類のモデルに適用でき、改善できる。
論文 参考訳(メタデータ) (2023-11-16T05:31:21Z) - MMSD2.0: Towards a Reliable Multi-modal Sarcasm Detection System [57.650338588086186]
本稿では,MMSDの欠点を修正する補正データセットMMSD2.0を紹介する。
マルチビューCLIPと呼ばれる,複数視点から多粒度キューを活用可能な新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-14T03:22:51Z) - Sarcasm Detection Framework Using Emotion and Sentiment Features [62.997667081978825]
本研究では,感情と感情の特徴を取り入れたモデルを提案する。
我々のアプローチは、ソーシャルネットワークプラットフォームとオンラインメディアの4つのデータセットに対して、最先端の結果を得た。
論文 参考訳(メタデータ) (2022-11-23T15:14:44Z) - Towards Multi-Modal Sarcasm Detection via Hierarchical Congruity
Modeling with Knowledge Enhancement [31.97249246223621]
サルカスム(Sarcasm)は、文字通りの意味と暗示意図の相違を示す言語現象である。
既存の技術のほとんどは、テキスト入力と付随する画像の間の原子レベルの不整合をモデル化しただけだった。
本稿では,マルチヘッドのクロスアテンション機構に基づく原子レベルの合同性と,グラフニューラルネットワークに基づく合成レベルの合同性の両方を探索し,サルカズム検出のための新しい階層的枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-07T12:44:33Z) - Multimodal Learning using Optimal Transport for Sarcasm and Humor
Detection [76.62550719834722]
会話ビデオと画像テキストのペアからマルチモーダルサルカズムとユーモアを検出する。
本稿では,モーダル内対応を利用したマルチモーダル学習システム MuLOT を提案する。
3つのベンチマークデータセット上で,マルチモーダルサルカズムとユーモア検出のためのアプローチを検証した。
論文 参考訳(メタデータ) (2021-10-21T07:51:56Z) - Interpretable Multi-Head Self-Attention model for Sarcasm Detection in
social media [0.0]
sarcastic expressionの曖昧さは、sarcasmの発見を非常に困難にしている。
マルチヘッドセルフアテンションとゲートリカレントユニットを用いた解釈可能なディープラーニングモデルを開発する。
本稿では,複数のデータセットで最新の結果を得る手法の有効性を示す。
論文 参考訳(メタデータ) (2021-01-14T21:39:35Z) - Bi-ISCA: Bidirectional Inter-Sentence Contextual Attention Mechanism for
Detecting Sarcasm in User Generated Noisy Short Text [8.36639545285691]
本稿では,双方向コンテキストアテンション機構(Bi-ISCA)を用いた最先端ディープラーニングアーキテクチャを提案する。
Bi-ISCAは、会話コンテキストのみを使用して、ユーザ生成した短いテキストの皮肉を検出するための文間依存関係をキャプチャする。
提案した深層学習モデルは,暗黙的,暗黙的,文脈的に不連続な単語や句を抽出し,サルカズムを誘発する能力を示す。
論文 参考訳(メタデータ) (2020-11-23T15:24:27Z) - $R^3$: Reverse, Retrieve, and Rank for Sarcasm Generation with
Commonsense Knowledge [51.70688120849654]
非皮肉な入力文に基づくサルカズム生成のための教師なしアプローチを提案する。
本手法では,サルカズムの2つの主要な特徴をインスタンス化するために,検索・編集の枠組みを用いる。
論文 参考訳(メタデータ) (2020-04-28T02:30:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。