論文の概要: SemEval-2020 Task 8: Memotion Analysis -- The Visuo-Lingual Metaphor!
- arxiv url: http://arxiv.org/abs/2008.03781v1
- Date: Sun, 9 Aug 2020 18:17:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 04:25:08.657403
- Title: SemEval-2020 Task 8: Memotion Analysis -- The Visuo-Lingual Metaphor!
- Title(参考訳): SemEval-2020 Task 8: Memotion Analysis - The Visuo-Lingual Metaphor!
- Authors: Chhavi Sharma and Deepesh Bhageria and William Scott and Srinivas PYKL
and Amitava Das and Tanmoy Chakraborty and Viswanath Pulabaigari and Bjorn
Gamback
- Abstract要約: 本提案の目的は,インターネットミームの自動処理に研究コミュニティの注意を向けることである。
タスクMemotion分析は、10Kのアノテートミームをリリースし、人間のアノテートラベルは感情(肯定的、否定的、中立的)、感情のタイプ(皮肉的、面白い、攻撃的、動機的、動機的)とそれに対応する強さである。
課題は、ミームの感情(肯定的、否定的、中立的)分析、全体的な感情(感情、皮肉、攻撃的、動機的)分類、ミームの強さの分類である。
- 参考スコア(独自算出の注目度): 20.55903557920223
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Information on social media comprises of various modalities such as textual,
visual and audio. NLP and Computer Vision communities often leverage only one
prominent modality in isolation to study social media. However, the
computational processing of Internet memes needs a hybrid approach. The growing
ubiquity of Internet memes on social media platforms such as Facebook,
Instagram, and Twiter further suggests that we can not ignore such multimodal
content anymore. To the best of our knowledge, there is not much attention
towards meme emotion analysis. The objective of this proposal is to bring the
attention of the research community towards the automatic processing of
Internet memes. The task Memotion analysis released approx 10K annotated memes,
with human-annotated labels namely sentiment (positive, negative, neutral),
type of emotion (sarcastic, funny, offensive, motivation) and their
corresponding intensity. The challenge consisted of three subtasks: sentiment
(positive, negative, and neutral) analysis of memes, overall emotion (humour,
sarcasm, offensive, and motivational) classification of memes, and classifying
intensity of meme emotion. The best performances achieved were F1 (macro
average) scores of 0.35, 0.51 and 0.32, respectively for each of the three
subtasks.
- Abstract(参考訳): ソーシャルメディア上の情報は、テキスト、ビジュアル、オーディオなどの様々なモダリティから構成される。
NLPとコンピュータビジョンのコミュニティは、ソーシャルメディアを研究するために単独で1つの顕著なモダリティしか利用していない。
しかし、インターネットミームの計算処理にはハイブリッドアプローチが必要である。
Facebook、Instagram、Twiterなどのソーシャルメディアプラットフォームにおけるインターネットミームの普及はさらに、そのようなマルチモーダルコンテンツは無視できないことを示唆している。
我々の知る限りでは、ミームの感情分析にはあまり注意が払わない。
本提案の目的は,インターネットミームの自動処理に研究コミュニティの注意を向けることである。
task memotion analysisは、約10kの注釈付きミームをリリースし、感情(ポジティブ、ネガティブ、ニュートラル)、感情の種類(皮肉、面白い、不快、モチベーション)、それに対応する強度という、人間の注釈付きラベルを付けた。
課題は、ミームの感情分析(肯定的、否定的、中立的)、ミームの全体的な感情分類(ユーモア、皮肉、攻撃的、動機づけ的)、ミームの強さの分類という3つのサブタスクで構成されていた。
最高成績は3つのサブタスクごとにそれぞれ0.35, 0.51, 0.32のf1スコアであった。
関連論文リスト
- XMeCap: Meme Caption Generation with Sub-Image Adaptability [53.2509590113364]
社会的な意味や文化的な詳細に深く根ざした噂は、機械にとってユニークな挑戦である。
我々は、教師付き微調整と強化学習を採用するtextscXMeCapフレームワークを紹介した。
textscXMeCapは、シングルイメージのミームの平均評価スコアが75.85で、マルチイメージのミームは66.32で、それぞれ3.71%と4.82%で最高のベースラインを上回っている。
論文 参考訳(メタデータ) (2024-07-24T10:51:46Z) - Meme-ingful Analysis: Enhanced Understanding of Cyberbullying in Memes
Through Multimodal Explanations [48.82168723932981]
Em MultiBully-Exは、コード混在型サイバーいじめミームからマルチモーダルな説明を行うための最初のベンチマークデータセットである。
ミームの視覚的およびテキスト的説明のために,コントラスト言語-画像事前学習 (CLIP) アプローチが提案されている。
論文 参考訳(メタデータ) (2024-01-18T11:24:30Z) - Why Do You Feel This Way? Summarizing Triggers of Emotions in Social
Media Posts [61.723046082145416]
CovidET (Emotions and their Triggers during Covid-19)は、COVID-19に関連する英国のReddit投稿1,900件のデータセットである。
我々は、感情を共同で検出し、感情のトリガーを要約する強力なベースラインを開発する。
分析の結果,コビデットは感情特異的要約における新たな課題と,長文のソーシャルメディア投稿におけるマルチ感情検出の課題が示唆された。
論文 参考訳(メタデータ) (2022-10-22T19:10:26Z) - Detecting and Understanding Harmful Memes: A Survey [48.135415967633676]
我々は有害なミームに焦点を当てた総合的な調査を行っている。
興味深い発見の1つは、多くの有害ミームが実際には研究されていないことである。
別の観察では、ミームは異なる言語で再パッケージ化することでグローバルに伝播し、多言語化することもできる。
論文 参考訳(メタデータ) (2022-05-09T13:43:27Z) - Multimodal Analysis of memes for sentiment extraction [0.0]
この研究は、皮肉、喜劇、モチベーション、全体的な感覚に基づいてミームを分類するMemotionデータセットに基づいている。
最も優れたアルゴリズムは、ユーモア分類で0.633、動機分類で0.55、皮肉分類で0.61、ミーム全体の感情で0.575というマクロF1スコアを達成した。
論文 参考訳(メタデータ) (2021-12-22T12:57:05Z) - Detecting Harmful Memes and Their Targets [27.25262711136056]
COVID-19に関連する3,544のミームを含む最初のベンチマークデータセットであるHarMemeを紹介します。
第1段階では、ミームを非常に有害、部分的に有害、または無害とラベル付けし、第2段階では、有害ミームが示す標的の種類をさらにアノテートした。
10の単一モーダルモデルとマルチモーダルモデルによる評価結果は、両方のタスクにマルチモーダル信号を使用することの重要性を強調している。
論文 参考訳(メタデータ) (2021-09-24T17:11:42Z) - Memes in the Wild: Assessing the Generalizability of the Hateful Memes
Challenge Dataset [47.65948529524281]
Pinterestからヘイトフルで非ヘイトフルなミームを収集して、Facebookデータセットで事前トレーニングされたモデルで、サンプル外のパフォーマンスを評価します。
1) キャプションをOCRで抽出しなければならない,2) ミームは従来のミームよりも多様であり, 会話のスクリーンショットやテキストをプレーンな背景に表示する,という2つの重要な側面がある。
論文 参考訳(メタデータ) (2021-07-09T09:04:05Z) - Entropy and complexity unveil the landscape of memes evolution [105.59074436693487]
われわれは、2011年から2020年までの10年間で、Redditから200万のビジュアルミームの進化を研究した。
ミームは新たなインターネットメタ言語の一部であるという仮説を支持する。
論文 参考訳(メタデータ) (2021-05-26T07:41:09Z) - Exercise? I thought you said 'Extra Fries': Leveraging Sentence
Demarcations and Multi-hop Attention for Meme Affect Analysis [18.23523076710257]
MHA-MEMEと呼ばれるマルチホップアテンションベースのディープニューラルネットワークフレームワークを提案する。
その主な目的は、視覚モダリティ(画像)と様々なテキストセグメント間の空間領域対応を利用して、分類のためのきめ細かい特徴表現を抽出することである。
MHA-MEMEを3つのサブタスク(感情分類、影響分類、クラス定量化)すべてに対して'Memotion Analysis'データセット上で評価する。
論文 参考訳(メタデータ) (2021-03-23T08:21:37Z) - Dissecting the Meme Magic: Understanding Indicators of Virality in Image
Memes [11.491215688828518]
非常にバイラルなミームは、クローズアップスケールを使用し、キャラクターを包含し、ポジティブな感情やネガティブな感情を含む傾向にある。
一方、明瞭な主題を提示しない画像ミームは、視聴者が注意を向けたり、長いテキストを含む画像ミームは、ユーザーによって再共有されがちである。
われわれは機械学習モデルを訓練し、バイラルになりそうな画像ミームと、再共有される可能性が低い画像ミームを区別する。
論文 参考訳(メタデータ) (2021-01-16T22:36:51Z) - gundapusunil at SemEval-2020 Task 8: Multimodal Memotion Analysis [7.538482310185133]
コンピュータビジョンと自然言語処理を組み合わせたディープニューラルネットワークを用いたマルチモーダル感情分析システムを提案する。
我々の目標は、テキストが肯定的あるいは否定的な感情を表現するかどうかを予測する通常の感情分析目標とは異なる。
CNN と LSTM を用いてシステムを構築し,ベースラインスコアを上回った。
論文 参考訳(メタデータ) (2020-10-09T09:53:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。