論文の概要: Multi-Modal Sarcasm Detection Based on Contrastive Attention Mechanism
- arxiv url: http://arxiv.org/abs/2109.15153v1
- Date: Thu, 30 Sep 2021 14:17:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-01 19:38:11.689458
- Title: Multi-Modal Sarcasm Detection Based on Contrastive Attention Mechanism
- Title(参考訳): コントラスト注意機構に基づくマルチモーダルサーカズム検出
- Authors: Xiaoqiang Zhang, Ying Chen, Guangyuan Li
- Abstract要約: 本研究では、モーダリティ間コントラストアテンションに基づくSarcasm Detection(ConAttSD)モデルを構築し、モーダリティ間コントラストアテンション機構を用いて発話のコントラスト特徴を抽出する。
ベンチマークマルチモーダルサルカズムデータセットであるMUStARDに関する実験により,提案したConAttSDモデルの有効性を実証した。
- 参考スコア(独自算出の注目度): 7.194040730138362
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the past decade, sarcasm detection has been intensively conducted in a
textual scenario. With the popularization of video communication, the analysis
in multi-modal scenarios has received much attention in recent years.
Therefore, multi-modal sarcasm detection, which aims at detecting sarcasm in
video conversations, becomes increasingly hot in both the natural language
processing community and the multi-modal analysis community. In this paper,
considering that sarcasm is often conveyed through incongruity between
modalities (e.g., text expressing a compliment while acoustic tone indicating a
grumble), we construct a Contras-tive-Attention-based Sarcasm Detection
(ConAttSD) model, which uses an inter-modality contrastive attention mechanism
to extract several contrastive features for an utterance. A contrastive feature
represents the incongruity of information between two modalities. Our
experiments on MUStARD, a benchmark multi-modal sarcasm dataset, demonstrate
the effectiveness of the proposed ConAttSD model.
- Abstract(参考訳): 過去10年間、皮肉の検出はテキストのシナリオで集中的に行われてきた。
近年,ビデオ通信の普及に伴い,マルチモーダルシナリオの解析が注目されている。
したがって,ビデオ会話におけるサーカズムの検出を目的としたマルチモーダルサーカズム検出は,自然言語処理コミュニティとマルチモーダル解析コミュニティの両方でますますホットになっている。
本稿では,モダリティ間の共和性(例えば,音声音がグラムブルを表すときに補完を表すテキスト)を通してしばしばサーカズムが伝達されることを示すことを考慮し,モーダル間の対比的注意機構を用いて発話のコントラスト的特徴を抽出し,コントラス・インタテンションに基づくサーカズム検出(conattsd)モデルを構築する。
対照的な特徴は、2つのモード間の情報の矛盾を表す。
ベンチマークマルチモーダルサルカズムデータセットであるMUStARDに関する実験により,提案したConAttSDモデルの有効性を実証した。
関連論文リスト
- Sentiment-enhanced Graph-based Sarcasm Explanation in Dialogue [67.09698638709065]
本稿では,SEntiment-enhanceD Graph を用いたマルチモーダルサルカズム記述フレームワーク EDGE を提案する。
特に,まずレキシコン誘導型発話感情推論モジュールを提案し,そこでは発話感情改善戦略を考案する。
次に,マルチモーダル感情分析モデル JCA を拡張し,映像音声クリップ毎に共同感情ラベルを導出することにより,JCA-SI (Joint Cross Attention-based Sentiment Inference) というモジュールを開発する。
論文 参考訳(メタデータ) (2024-02-06T03:14:46Z) - BNS-Net: A Dual-channel Sarcasm Detection Method Considering
Behavior-level and Sentence-level Conflicts [7.864536423561251]
Sarcasm Detectionは、与えられた発話が皮肉であるかどうかを判断することを目的としたバイナリ分類タスクである。
本稿では,BNS-Net という名前の2チャネルサルカズム検出モデルを提案する。
BNS-Netはテキスト中の皮肉を効果的に識別し、最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-09-07T11:55:11Z) - MMSD2.0: Towards a Reliable Multi-modal Sarcasm Detection System [57.650338588086186]
本稿では,MMSDの欠点を修正する補正データセットMMSD2.0を紹介する。
マルチビューCLIPと呼ばれる,複数視点から多粒度キューを活用可能な新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-14T03:22:51Z) - Sarcasm Detection Framework Using Emotion and Sentiment Features [62.997667081978825]
本研究では,感情と感情の特徴を取り入れたモデルを提案する。
我々のアプローチは、ソーシャルネットワークプラットフォームとオンラインメディアの4つのデータセットに対して、最先端の結果を得た。
論文 参考訳(メタデータ) (2022-11-23T15:14:44Z) - How to Describe Images in a More Funny Way? Towards a Modular Approach
to Cross-Modal Sarcasm Generation [62.89586083449108]
本稿では,CMSG(Cross-modal sarcasm Generation)の新たな問題,すなわち,与えられた画像に対してサーカシックな記述を生成することについて検討する。
CMSGは、異なるモード間の相関だけでなく、サルカズムの特性をモデルが満たさなければならないため、困難である。
クロスモデルサルカズム生成のための抽出・生成・生成に基づくモジュール法(EGRM)を提案する。
論文 参考訳(メタデータ) (2022-11-20T14:38:24Z) - Towards Multi-Modal Sarcasm Detection via Hierarchical Congruity
Modeling with Knowledge Enhancement [31.97249246223621]
サルカスム(Sarcasm)は、文字通りの意味と暗示意図の相違を示す言語現象である。
既存の技術のほとんどは、テキスト入力と付随する画像の間の原子レベルの不整合をモデル化しただけだった。
本稿では,マルチヘッドのクロスアテンション機構に基づく原子レベルの合同性と,グラフニューラルネットワークに基づく合成レベルの合同性の両方を探索し,サルカズム検出のための新しい階層的枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-07T12:44:33Z) - Computational Sarcasm Analysis on Social Media: A Systematic Review [0.23488056916440855]
サルカズムは、人を侮辱したり、いらいらさせたり、楽しませたりするために、本当に表現したいことの反対を言ったり、書いたりするものとして定義することができる。
テキストデータにおけるサルカズムの曖昧な性質から,その検出は困難であり,感情分析研究コミュニティに大きな関心を寄せている。
論文 参考訳(メタデータ) (2022-09-13T17:20:19Z) - Multimodal Learning using Optimal Transport for Sarcasm and Humor
Detection [76.62550719834722]
会話ビデオと画像テキストのペアからマルチモーダルサルカズムとユーモアを検出する。
本稿では,モーダル内対応を利用したマルチモーダル学習システム MuLOT を提案する。
3つのベンチマークデータセット上で,マルチモーダルサルカズムとユーモア検出のためのアプローチを検証した。
論文 参考訳(メタデータ) (2021-10-21T07:51:56Z) - Interpretable Multi-Head Self-Attention model for Sarcasm Detection in
social media [0.0]
sarcastic expressionの曖昧さは、sarcasmの発見を非常に困難にしている。
マルチヘッドセルフアテンションとゲートリカレントユニットを用いた解釈可能なディープラーニングモデルを開発する。
本稿では,複数のデータセットで最新の結果を得る手法の有効性を示す。
論文 参考訳(メタデータ) (2021-01-14T21:39:35Z) - Bi-ISCA: Bidirectional Inter-Sentence Contextual Attention Mechanism for
Detecting Sarcasm in User Generated Noisy Short Text [8.36639545285691]
本稿では,双方向コンテキストアテンション機構(Bi-ISCA)を用いた最先端ディープラーニングアーキテクチャを提案する。
Bi-ISCAは、会話コンテキストのみを使用して、ユーザ生成した短いテキストの皮肉を検出するための文間依存関係をキャプチャする。
提案した深層学習モデルは,暗黙的,暗黙的,文脈的に不連続な単語や句を抽出し,サルカズムを誘発する能力を示す。
論文 参考訳(メタデータ) (2020-11-23T15:24:27Z) - $R^3$: Reverse, Retrieve, and Rank for Sarcasm Generation with
Commonsense Knowledge [51.70688120849654]
非皮肉な入力文に基づくサルカズム生成のための教師なしアプローチを提案する。
本手法では,サルカズムの2つの主要な特徴をインスタンス化するために,検索・編集の枠組みを用いる。
論文 参考訳(メタデータ) (2020-04-28T02:30:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。