論文の概要: Exercise? I thought you said 'Extra Fries': Leveraging Sentence
Demarcations and Multi-hop Attention for Meme Affect Analysis
- arxiv url: http://arxiv.org/abs/2103.12377v1
- Date: Tue, 23 Mar 2021 08:21:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-24 13:59:44.918645
- Title: Exercise? I thought you said 'Extra Fries': Leveraging Sentence
Demarcations and Multi-hop Attention for Meme Affect Analysis
- Title(参考訳): 運動?
あなたは「過激なフライドポテト」だと思った: 文の分割とマルチホップの注意をミームの影響分析に活用する
- Authors: Shraman Pramanick, Md Shad Akhtar, Tanmoy Chakraborty
- Abstract要約: MHA-MEMEと呼ばれるマルチホップアテンションベースのディープニューラルネットワークフレームワークを提案する。
その主な目的は、視覚モダリティ(画像)と様々なテキストセグメント間の空間領域対応を利用して、分類のためのきめ細かい特徴表現を抽出することである。
MHA-MEMEを3つのサブタスク(感情分類、影響分類、クラス定量化)すべてに対して'Memotion Analysis'データセット上で評価する。
- 参考スコア(独自算出の注目度): 18.23523076710257
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Today's Internet is awash in memes as they are humorous, satirical, or ironic
which make people laugh. According to a survey, 33% of social media users in
age bracket [13-35] send memes every day, whereas more than 50% send every
week. Some of these memes spread rapidly within a very short time-frame, and
their virality depends on the novelty of their (textual and visual) content. A
few of them convey positive messages, such as funny or motivational quotes;
while others are meant to mock/hurt someone's feelings through sarcastic or
offensive messages. Despite the appealing nature of memes and their rapid
emergence on social media, effective analysis of memes has not been adequately
attempted to the extent it deserves.
In this paper, we attempt to solve the same set of tasks suggested in the
SemEval'20-Memotion Analysis competition. We propose a multi-hop
attention-based deep neural network framework, called MHA-MEME, whose prime
objective is to leverage the spatial-domain correspondence between the visual
modality (an image) and various textual segments to extract fine-grained
feature representations for classification. We evaluate MHA-MEME on the
'Memotion Analysis' dataset for all three sub-tasks - sentiment classification,
affect classification, and affect class quantification. Our comparative study
shows sota performances of MHA-MEME for all three tasks compared to the top
systems that participated in the competition. Unlike all the baselines which
perform inconsistently across all three tasks, MHA-MEME outperforms baselines
in all the tasks on average. Moreover, we validate the generalization of
MHA-MEME on another set of manually annotated test samples and observe it to be
consistent. Finally, we establish the interpretability of MHA-MEME.
- Abstract(参考訳): 今日のインターネットは、ユーモラスで風刺的、皮肉で人々を笑わせるため、ミームに溢れています。
調査によれば、年齢層(13~35歳)のソーシャルメディアユーザーの33%が毎日ミームを送信しており、50%以上が毎週送信している。
これらのミームのいくつかは、非常に短い時間枠内で急速に広まり、そのバイラル性は、その(テキストと視覚)コンテンツの新規性に依存する。
何人かは面白い言葉やモチベーション的な引用などポジティブなメッセージを伝え、他は皮肉や不快なメッセージを通じて誰かの感情をモックしたり傷つけたりすることを目的としている。
ミームの魅力やソーシャルメディア上での急速な出現にもかかわらず、ミームの効果的な分析は十分に試みられていない。
本稿では,SemEval'20-Memotion Analysisコンペティションで提案されている課題の集合を解く。
視覚的モダリティ(画像)と様々なテキストセグメント間の空間領域対応を利用して、分類のためのきめ細かい特徴表現を抽出することを目的として,MHA-MEMEと呼ばれるマルチホップ注目に基づくディープニューラルネットワークフレームワークを提案する。
MHA-MEMEを3つのサブタスク(感情分類、影響分類、クラス定量化)すべてに対して'Memotion Analysis'データセット上で評価する。
コンペに参加した上位システムと比較して,MHA-MEMEの3つのタスクごとのソタパフォーマンスを比較検討した。
MHA-MEMEは3つのタスクすべてで矛盾なく実行されるベースラインとは異なり、平均して全てのタスクにおいてベースラインより優れている。
さらに,mha-memeの他の手作業によるテストサンプルの一般化を検証し,その一貫性を確認した。
最後に,MHA-MEMEの解釈可能性を確立する。
関連論文リスト
- XMeCap: Meme Caption Generation with Sub-Image Adaptability [53.2509590113364]
社会的な意味や文化的な詳細に深く根ざした噂は、機械にとってユニークな挑戦である。
我々は、教師付き微調整と強化学習を採用するtextscXMeCapフレームワークを紹介した。
textscXMeCapは、シングルイメージのミームの平均評価スコアが75.85で、マルチイメージのミームは66.32で、それぞれ3.71%と4.82%で最高のベースラインを上回っている。
論文 参考訳(メタデータ) (2024-07-24T10:51:46Z) - IITK at SemEval-2024 Task 4: Hierarchical Embeddings for Detection of Persuasion Techniques in Memes [4.679320772294786]
本稿では,この課題に対するクラス定義予測(CDP)と双曲埋め込みに基づくアプローチのアンサンブルを提案する。
我々はHypEmoの階層的なラベル埋め込みと、感情予測のためのマルチタスク学習フレームワークを統合することで、ミーム分類の精度と包括性を向上する。
論文 参考訳(メタデータ) (2024-04-06T06:28:02Z) - Overview of Memotion 3: Sentiment and Emotion Analysis of Codemixed
Hinglish Memes [36.34201719103715]
本稿では,AAAI-23のDeFactify 2ワークショップの一環として,Memotion 3共有タスクの概要を紹介する。
タスクA(Task A)、感情B(Task B)、感情強度(Task C)に基づくヒンディー語コード混合ミームの注釈付きデータセットをリリースした。
50以上のチームが共有タスクに登録され、5チームがMemotion 3データセットのテストセットに最終提出を行った。
論文 参考訳(メタデータ) (2023-09-12T18:47:29Z) - Incorporating Emotions into Health Mention Classification Task on Social
Media [70.23889100356091]
情緒的特徴を取り入れた健康言及分類のための枠組みを提案する。
我々は,ソーシャルメディアプラットフォームによる5つのHMC関連データセットに対するアプローチを評価した。
以上の結果から,感情的な知識を取り入れたHMCモデルが有効な選択肢であることが示唆された。
論文 参考訳(メタデータ) (2022-12-09T18:38:41Z) - What do you MEME? Generating Explanations for Visual Semantic Role
Labelling in Memes [42.357272117919464]
ミームにおける視覚的意味的役割のラベル付けに関する説明を生成する新しいタスク-EXCLAIMを導入する。
この目的のために,3種類のエンティティに対する意味的役割の自然言語説明を提供する新しいデータセットであるExHVVをキュレートする。
また,EXCLAIMを最適に扱える新しいマルチモーダル・マルチタスク学習フレームワークであるLUMENを提案する。
論文 参考訳(メタデータ) (2022-12-01T18:21:36Z) - Seeking Subjectivity in Visual Emotion Distribution Learning [93.96205258496697]
視覚感情分析(VEA)は、人々の感情を異なる視覚刺激に向けて予測することを目的としている。
既存の手法では、集団投票プロセスにおいて固有の主観性を無視して、統合されたネットワークにおける視覚的感情分布を予測することが多い。
視覚的感情分布の主観性を調べるために,新しいテキストサブジェクティビティ評価ネットワーク(SAMNet)を提案する。
論文 参考訳(メタデータ) (2022-07-25T02:20:03Z) - DISARM: Detecting the Victims Targeted by Harmful Memes [49.12165815990115]
DISARMは、有害なミームを検出するために名前付きエンティティ認識と個人識別を使用するフレームワークである。
DISARMは10の単一モーダル・マルチモーダルシステムより著しく優れていることを示す。
複数の強力なマルチモーダルライバルに対して、有害なターゲット識別の相対誤差率を最大9ポイントまで下げることができる。
論文 参考訳(メタデータ) (2022-05-11T19:14:26Z) - Detecting and Understanding Harmful Memes: A Survey [48.135415967633676]
我々は有害なミームに焦点を当てた総合的な調査を行っている。
興味深い発見の1つは、多くの有害ミームが実際には研究されていないことである。
別の観察では、ミームは異なる言語で再パッケージ化することでグローバルに伝播し、多言語化することもできる。
論文 参考訳(メタデータ) (2022-05-09T13:43:27Z) - SemEval-2020 Task 8: Memotion Analysis -- The Visuo-Lingual Metaphor! [20.55903557920223]
本提案の目的は,インターネットミームの自動処理に研究コミュニティの注意を向けることである。
タスクMemotion分析は、10Kのアノテートミームをリリースし、人間のアノテートラベルは感情(肯定的、否定的、中立的)、感情のタイプ(皮肉的、面白い、攻撃的、動機的、動機的)とそれに対応する強さである。
課題は、ミームの感情(肯定的、否定的、中立的)分析、全体的な感情(感情、皮肉、攻撃的、動機的)分類、ミームの強さの分類である。
論文 参考訳(メタデータ) (2020-08-09T18:17:33Z) - IITK at SemEval-2020 Task 8: Unimodal and Bimodal Sentiment Analysis of
Internet Memes [2.2385755093672044]
本稿では,SemEval-2020 Task 8における感情分析問題に対するアプローチを提案する。
このタスクの目的は、感情の内容と感情に基づいてミームを分類することである。
この結果から,Word2vecを入力として組み込んだ単純なフィードフォワードニューラルネットワーク(FFNN)は,他のすべてよりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-07-21T14:06:26Z) - EmotiCon: Context-Aware Multimodal Emotion Recognition using Frege's
Principle [71.47160118286226]
EmotiConは、ビデオや画像から知覚された人間の感情認識をコンテキスト認識する学習アルゴリズムである。
心理学からフレーゲの文脈原理に動機づけられた我々のアプローチは、感情認識のための文脈の3つの解釈を組み合わせたものである。
平均精度 (AP) スコアは26クラスで35.48であり, 従来の手法よりも7-8の改善が見られた。
論文 参考訳(メタデータ) (2020-03-14T19:55:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。