論文の概要: A Survey of Multimodal Sarcasm Detection
- arxiv url: http://arxiv.org/abs/2410.18882v1
- Date: Thu, 24 Oct 2024 16:17:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-25 16:43:57.740274
- Title: A Survey of Multimodal Sarcasm Detection
- Title(参考訳): マルチモーダルサーカスム検出の実態調査
- Authors: Shafkat Farabi, Tharindu Ranasinghe, Diptesh Kanojia, Yu Kong, Marcos Zampieri,
- Abstract要約: サルカスム(Sarcasm)は、発音の文字通りの意味の反対を伝達するために用いられる修辞的な装置である。
これまでに,マルチモーダルサルカズム検出に関する総合的な調査が報告されている。
- 参考スコア(独自算出の注目度): 32.659528422756416
- License:
- Abstract: Sarcasm is a rhetorical device that is used to convey the opposite of the literal meaning of an utterance. Sarcasm is widely used on social media and other forms of computer-mediated communication motivating the use of computational models to identify it automatically. While the clear majority of approaches to sarcasm detection have been carried out on text only, sarcasm detection often requires additional information present in tonality, facial expression, and contextual images. This has led to the introduction of multimodal models, opening the possibility to detect sarcasm in multiple modalities such as audio, images, text, and video. In this paper, we present the first comprehensive survey on multimodal sarcasm detection - henceforth MSD - to date. We survey papers published between 2018 and 2023 on the topic, and discuss the models and datasets used for this task. We also present future research directions in MSD.
- Abstract(参考訳): サルカスム(Sarcasm)は、発音の文字通りの意味の反対を伝達するために用いられる修辞的な装置である。
Sarcasm はソーシャルメディアやその他のコンピュータによるコミュニケーションで広く使われており、自動的に識別する計算モデルの利用を動機付けている。
サルカズム検出へのアプローチの大多数はテキストのみで行われているが、サルカズム検出にはトナリティ、表情、文脈画像などの追加情報が必要であることが多い。
この結果、マルチモーダルモデルが導入され、音声、画像、テキスト、ビデオなどの複数のモードで皮肉を検出することが可能になった。
本稿では,MSDによるマルチモーダルサルカズム検出に関する総合的な調査を,これまでに初めて紹介する。
このトピックに関する2018年から2023年の間に公開された論文を調査し、このタスクに使用されるモデルとデータセットについて論じる。
また,MSDにおける今後の研究方針について述べる。
関連論文リスト
- MMSD2.0: Towards a Reliable Multi-modal Sarcasm Detection System [57.650338588086186]
本稿では,MMSDの欠点を修正する補正データセットMMSD2.0を紹介する。
マルチビューCLIPと呼ばれる,複数視点から多粒度キューを活用可能な新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-14T03:22:51Z) - Researchers eye-view of sarcasm detection in social media textual
content [0.0]
ソーシャルメディアにおけるあらゆる形態のコミュニケーションにおける皮肉文の使用は、ターゲットユーザに対する生理的効果をもたらす。
本稿では,様々なサルカズム検出手法について論じ,いくつかのアプローチ,および最適な特徴を持つ関連するデータセットを結論づける。
論文 参考訳(メタデータ) (2023-04-17T19:45:10Z) - Sarcasm Detection Framework Using Emotion and Sentiment Features [62.997667081978825]
本研究では,感情と感情の特徴を取り入れたモデルを提案する。
我々のアプローチは、ソーシャルネットワークプラットフォームとオンラインメディアの4つのデータセットに対して、最先端の結果を得た。
論文 参考訳(メタデータ) (2022-11-23T15:14:44Z) - How to Describe Images in a More Funny Way? Towards a Modular Approach
to Cross-Modal Sarcasm Generation [62.89586083449108]
本稿では,CMSG(Cross-modal sarcasm Generation)の新たな問題,すなわち,与えられた画像に対してサーカシックな記述を生成することについて検討する。
CMSGは、異なるモード間の相関だけでなく、サルカズムの特性をモデルが満たさなければならないため、困難である。
クロスモデルサルカズム生成のための抽出・生成・生成に基づくモジュール法(EGRM)を提案する。
論文 参考訳(メタデータ) (2022-11-20T14:38:24Z) - Towards Multi-Modal Sarcasm Detection via Hierarchical Congruity
Modeling with Knowledge Enhancement [31.97249246223621]
サルカスム(Sarcasm)は、文字通りの意味と暗示意図の相違を示す言語現象である。
既存の技術のほとんどは、テキスト入力と付随する画像の間の原子レベルの不整合をモデル化しただけだった。
本稿では,マルチヘッドのクロスアテンション機構に基づく原子レベルの合同性と,グラフニューラルネットワークに基づく合成レベルの合同性の両方を探索し,サルカズム検出のための新しい階層的枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-07T12:44:33Z) - Computational Sarcasm Analysis on Social Media: A Systematic Review [0.23488056916440855]
サルカズムは、人を侮辱したり、いらいらさせたり、楽しませたりするために、本当に表現したいことの反対を言ったり、書いたりするものとして定義することができる。
テキストデータにおけるサルカズムの曖昧な性質から,その検出は困難であり,感情分析研究コミュニティに大きな関心を寄せている。
論文 参考訳(メタデータ) (2022-09-13T17:20:19Z) - A Survey on Automated Sarcasm Detection on Twitter [0.0]
短いテキストメッセージは、特にTwitterのようなソーシャルメディアプラットフォーム上でのコミュニケーションにますます利用されている。
これらのメッセージの統一された皮肉は、文の意味を逆転させ、混乱とコミュニケーションの失敗につながる。
本稿では,文脈による検出,投稿履歴,機械学習モデルなど,現在使われているさまざまな手法について述べる。
論文 参考訳(メタデータ) (2022-02-05T08:38:38Z) - Multimodal Learning using Optimal Transport for Sarcasm and Humor
Detection [76.62550719834722]
会話ビデオと画像テキストのペアからマルチモーダルサルカズムとユーモアを検出する。
本稿では,モーダル内対応を利用したマルチモーダル学習システム MuLOT を提案する。
3つのベンチマークデータセット上で,マルチモーダルサルカズムとユーモア検出のためのアプローチを検証した。
論文 参考訳(メタデータ) (2021-10-21T07:51:56Z) - Multi-Modal Sarcasm Detection Based on Contrastive Attention Mechanism [7.194040730138362]
本研究では、モーダリティ間コントラストアテンションに基づくSarcasm Detection(ConAttSD)モデルを構築し、モーダリティ間コントラストアテンション機構を用いて発話のコントラスト特徴を抽出する。
ベンチマークマルチモーダルサルカズムデータセットであるMUStARDに関する実験により,提案したConAttSDモデルの有効性を実証した。
論文 参考訳(メタデータ) (2021-09-30T14:17:51Z) - $R^3$: Reverse, Retrieve, and Rank for Sarcasm Generation with
Commonsense Knowledge [51.70688120849654]
非皮肉な入力文に基づくサルカズム生成のための教師なしアプローチを提案する。
本手法では,サルカズムの2つの主要な特徴をインスタンス化するために,検索・編集の枠組みを用いる。
論文 参考訳(メタデータ) (2020-04-28T02:30:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。