論文の概要: Multimodal Analysis of memes for sentiment extraction
- arxiv url: http://arxiv.org/abs/2112.11850v1
- Date: Wed, 22 Dec 2021 12:57:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-23 14:22:22.536301
- Title: Multimodal Analysis of memes for sentiment extraction
- Title(参考訳): 感情抽出のためのミームのマルチモーダル解析
- Authors: Nayan Varma Alluri, Neeli Dheeraj Krishna
- Abstract要約: この研究は、皮肉、喜劇、モチベーション、全体的な感覚に基づいてミームを分類するMemotionデータセットに基づいている。
最も優れたアルゴリズムは、ユーモア分類で0.633、動機分類で0.55、皮肉分類で0.61、ミーム全体の感情で0.575というマクロF1スコアを達成した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Memes are one of the most ubiquitous forms of social media communication. The
study and processing of memes, which are intrinsically multimedia, is a popular
topic right now. The study presented in this research is based on the Memotion
dataset, which involves categorising memes based on irony, comedy, motivation,
and overall-sentiment. Three separate innovative transformer-based techniques
have been developed, and their outcomes have been thoroughly reviewed.The best
algorithm achieved a macro F1 score of 0.633 for humour classification, 0.55
for motivation classification, 0.61 for sarcasm classification, and 0.575 for
overall sentiment of the meme out of all our techniques.
- Abstract(参考訳): ミームは最もユビキタスなソーシャルメディアコミュニケーションの1つである。
本質的にマルチメディアであるミームの研究と処理は、現在一般的なトピックである。
この研究で提示された研究は、皮肉、コメディ、モチベーション、全体的な感情に基づいてミームを分類するmemotionデータセットに基づいている。
3つの革新的なトランスフォーマーベースの技術が開発され、その成果を徹底的にレビューし、最高のアルゴリズムは、ユーモア分類のマクロF1スコア0.633、モチベーション分類の0.55、サルカズム分類の0.61、ミーム全体の感情評価の0.575を達成した。
関連論文リスト
- XMeCap: Meme Caption Generation with Sub-Image Adaptability [53.2509590113364]
社会的な意味や文化的な詳細に深く根ざした噂は、機械にとってユニークな挑戦である。
我々は、教師付き微調整と強化学習を採用するtextscXMeCapフレームワークを紹介した。
textscXMeCapは、シングルイメージのミームの平均評価スコアが75.85で、マルチイメージのミームは66.32で、それぞれ3.71%と4.82%で最高のベースラインを上回っている。
論文 参考訳(メタデータ) (2024-07-24T10:51:46Z) - MemeMQA: Multimodal Question Answering for Memes via Rationale-Based Inferencing [53.30190591805432]
構造化された質問に対する正確な応答を求めるマルチモーダルな質問応答フレームワークであるMemeMQAを紹介する。
また,MemeMQAに対処する新しい2段階マルチモーダルフレームワークであるARSENALを提案する。
論文 参考訳(メタデータ) (2024-05-18T07:44:41Z) - IITK at SemEval-2024 Task 4: Hierarchical Embeddings for Detection of Persuasion Techniques in Memes [4.679320772294786]
本稿では,この課題に対するクラス定義予測(CDP)と双曲埋め込みに基づくアプローチのアンサンブルを提案する。
我々はHypEmoの階層的なラベル埋め込みと、感情予測のためのマルチタスク学習フレームワークを統合することで、ミーム分類の精度と包括性を向上する。
論文 参考訳(メタデータ) (2024-04-06T06:28:02Z) - Meme-ingful Analysis: Enhanced Understanding of Cyberbullying in Memes
Through Multimodal Explanations [48.82168723932981]
Em MultiBully-Exは、コード混在型サイバーいじめミームからマルチモーダルな説明を行うための最初のベンチマークデータセットである。
ミームの視覚的およびテキスト的説明のために,コントラスト言語-画像事前学習 (CLIP) アプローチが提案されている。
論文 参考訳(メタデータ) (2024-01-18T11:24:30Z) - A Template Is All You Meme [83.05919383106715]
我々は,54,000枚以上の画像からなる www.knowyourme.com で発見されたミームと情報の知識ベースをリリースする。
我々は、ミームテンプレートが、以前のアプローチから欠落したコンテキストでモデルを注入するのに使えると仮定する。
論文 参考訳(メタデータ) (2023-11-11T19:38:14Z) - Detecting and Understanding Harmful Memes: A Survey [48.135415967633676]
我々は有害なミームに焦点を当てた総合的な調査を行っている。
興味深い発見の1つは、多くの有害ミームが実際には研究されていないことである。
別の観察では、ミームは異なる言語で再パッケージ化することでグローバルに伝播し、多言語化することもできる。
論文 参考訳(メタデータ) (2022-05-09T13:43:27Z) - Memes in the Wild: Assessing the Generalizability of the Hateful Memes
Challenge Dataset [47.65948529524281]
Pinterestからヘイトフルで非ヘイトフルなミームを収集して、Facebookデータセットで事前トレーニングされたモデルで、サンプル外のパフォーマンスを評価します。
1) キャプションをOCRで抽出しなければならない,2) ミームは従来のミームよりも多様であり, 会話のスクリーンショットやテキストをプレーンな背景に表示する,という2つの重要な側面がある。
論文 参考訳(メタデータ) (2021-07-09T09:04:05Z) - Exercise? I thought you said 'Extra Fries': Leveraging Sentence
Demarcations and Multi-hop Attention for Meme Affect Analysis [18.23523076710257]
MHA-MEMEと呼ばれるマルチホップアテンションベースのディープニューラルネットワークフレームワークを提案する。
その主な目的は、視覚モダリティ(画像)と様々なテキストセグメント間の空間領域対応を利用して、分類のためのきめ細かい特徴表現を抽出することである。
MHA-MEMEを3つのサブタスク(感情分類、影響分類、クラス定量化)すべてに対して'Memotion Analysis'データセット上で評価する。
論文 参考訳(メタデータ) (2021-03-23T08:21:37Z) - SemEval-2020 Task 8: Memotion Analysis -- The Visuo-Lingual Metaphor! [20.55903557920223]
本提案の目的は,インターネットミームの自動処理に研究コミュニティの注意を向けることである。
タスクMemotion分析は、10Kのアノテートミームをリリースし、人間のアノテートラベルは感情(肯定的、否定的、中立的)、感情のタイプ(皮肉的、面白い、攻撃的、動機的、動機的)とそれに対応する強さである。
課題は、ミームの感情(肯定的、否定的、中立的)分析、全体的な感情(感情、皮肉、攻撃的、動機的)分類、ミームの強さの分類である。
論文 参考訳(メタデータ) (2020-08-09T18:17:33Z) - DSC IIT-ISM at SemEval-2020 Task 8: Bi-Fusion Techniques for Deep Meme
Emotion Analysis [5.259920715958942]
本稿では,SemEval 2020における感情分析共有タスクについて述べる。
本稿では,感情とユーモアの分類タスクに対するモーダル間の依存性を平均化するバイモーダル融合技術を用いたシステムを提案する。
論文 参考訳(メタデータ) (2020-07-28T17:23:35Z) - IITK at SemEval-2020 Task 8: Unimodal and Bimodal Sentiment Analysis of
Internet Memes [2.2385755093672044]
本稿では,SemEval-2020 Task 8における感情分析問題に対するアプローチを提案する。
このタスクの目的は、感情の内容と感情に基づいてミームを分類することである。
この結果から,Word2vecを入力として組み込んだ単純なフィードフォワードニューラルネットワーク(FFNN)は,他のすべてよりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-07-21T14:06:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。