論文の概要: Benchmark dataset of memes with text transcriptions for automatic
detection of multi-modal misogynistic content
- arxiv url: http://arxiv.org/abs/2106.08409v1
- Date: Tue, 15 Jun 2021 20:01:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-17 17:28:56.799282
- Title: Benchmark dataset of memes with text transcriptions for automatic
detection of multi-modal misogynistic content
- Title(参考訳): テキスト書き起こし付きミームのベンチマークデータセットによるマルチモーダルな擬似的コンテンツの自動検出
- Authors: Francesca Gasparini, Giulia Rizzi, Aurora Saibene, Elisabetta Fersini
- Abstract要約: データセットは、最も人気のあるソーシャルメディアプラットフォームから収集された800のミームで構成されています。
専門家は800のミームのデータセットを、ミソジスティックなものと非ミソジニスティックなものとで等しくバランスしている。
このデータは,Web上の疑似コンテンツを自動的に検出する問題に対処するために利用できる。
- 参考スコア(独自算出の注目度): 0.8261182037130405
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this paper we present a benchmark dataset generated as part of a project
for automatic identification of misogyny within online content, which focuses
in particular on memes. The benchmark here described is composed of 800 memes
collected from the most popular social media platforms, such as Facebook,
Twitter, Instagram and Reddit, and consulting websites dedicated to collection
and creation of memes. To gather misogynistic memes, specific keywords that
refer to misogynistic content have been considered as search criterion,
considering different manifestations of hatred against women, such as body
shaming, stereotyping, objectification and violence. In parallel, memes with no
misogynist content have been manually downloaded from the same web sources.
Among all the collected memes, three domain experts have selected a dataset of
800 memes equally balanced between misogynistic and non-misogynistic ones. This
dataset has been validated through a crowdsourcing platform, involving 60
subjects for the labelling process, in order to collect three evaluations for
each instance. Two further binary labels have been collected from both the
experts and the crowdsourcing platform, for memes evaluated as misogynistic,
concerning aggressiveness and irony. Finally for each meme, the text has been
manually transcribed. The dataset provided is thus composed of the 800 memes,
the labels given by the experts and those obtained by the crowdsourcing
validation, and the transcribed texts. This data can be used to approach the
problem of automatic detection of misogynistic content on the Web relying on
both textual and visual cues, facing phenomenons that are growing every day
such as cybersexism and technology-facilitated violence.
- Abstract(参考訳): 本稿では,特にミームに着目したオンラインコンテンツ中の誤認識を自動的に識別するプロジェクトの一環として,ベンチマークデータセットを提案する。
このベンチマークは、Facebook、Twitter、Instagram、Redditなどのソーシャルメディアプラットフォームから収集された800のミームと、ミームの収集と作成に特化したコンサルティングサイトで構成されている。
ミソグミズム的なミームを集めるために、ミソグミズム的なコンテンツを参照する特定のキーワードは、身体のシェーピング、ステレオタイプ、客観化、暴力など、女性に対する憎悪の異なる表現を考慮し、検索基準とみなされている。
並行して、misogynistコンテンツのないミームは、同じwebソースから手動でダウンロードされている。
収集されたミームのうち、3つのドメインの専門家が800のミームのデータセットを選択した。
このデータセットはクラウドソーシングプラットフォームを通じて検証され、各インスタンスの3つの評価を収集するために、ラベリングプロセスに60の被験者を含む。
専門家とクラウドソーシングプラットフォームの両方から、さらに2つのバイナリレーベルが収集されている。
最後に、各ミームについて、テキストは手書きで書き起こされている。
提供されるデータセットは800のミーム、専門家によるラベル、クラウドソーシングによる検証によって得られたラベル、および転写されたテキストから構成される。
このデータは、サイバーセクシズムや技術に精通した暴力など毎日成長している現象に直面する、テキストと視覚の両方に依存したWeb上の偽造コンテンツの自動検出の問題に対処するために使用できる。
関連論文リスト
- Exploratory Data Analysis on Code-mixed Misogynistic Comments [0.0]
我々は、ミックスコードHinglishでYouTubeコメントの新しいデータセットを提示する。
これらのコメントは「ミソジニスト」と「非ミソジニスト」とラベル付けされている。
論文 参考訳(メタデータ) (2024-03-09T23:21:17Z) - Meme-ingful Analysis: Enhanced Understanding of Cyberbullying in Memes
Through Multimodal Explanations [48.82168723932981]
Em MultiBully-Exは、コード混在型サイバーいじめミームからマルチモーダルな説明を行うための最初のベンチマークデータセットである。
ミームの視覚的およびテキスト的説明のために,コントラスト言語-画像事前学習 (CLIP) アプローチが提案されている。
論文 参考訳(メタデータ) (2024-01-18T11:24:30Z) - A Template Is All You Meme [83.05919383106715]
我々は,54,000枚以上の画像からなる www.knowyourme.com で発見されたミームと情報の知識ベースをリリースする。
我々は、ミームテンプレートが、以前のアプローチから欠落したコンテキストでモデルを注入するのに使えると仮定する。
論文 参考訳(メタデータ) (2023-11-11T19:38:14Z) - DisinfoMeme: A Multimodal Dataset for Detecting Meme Intentionally
Spreading Out Disinformation [72.18912216025029]
偽情報ミームの検出を支援するためにDisinfoMemeを提案する。
このデータセットには、COVID-19パンデミック、Black Lives Matter運動、ベジタリアン/ベジタリアンという3つのトピックをカバーするRedditのミームが含まれている。
論文 参考訳(メタデータ) (2022-05-25T09:54:59Z) - DISARM: Detecting the Victims Targeted by Harmful Memes [49.12165815990115]
DISARMは、有害なミームを検出するために名前付きエンティティ認識と個人識別を使用するフレームワークである。
DISARMは10の単一モーダル・マルチモーダルシステムより著しく優れていることを示す。
複数の強力なマルチモーダルライバルに対して、有害なターゲット識別の相対誤差率を最大9ポイントまで下げることができる。
論文 参考訳(メタデータ) (2022-05-11T19:14:26Z) - Detecting and Understanding Harmful Memes: A Survey [48.135415967633676]
我々は有害なミームに焦点を当てた総合的な調査を行っている。
興味深い発見の1つは、多くの有害ミームが実際には研究されていないことである。
別の観察では、ミームは異なる言語で再パッケージ化することでグローバルに伝播し、多言語化することもできる。
論文 参考訳(メタデータ) (2022-05-09T13:43:27Z) - TIB-VA at SemEval-2022 Task 5: A Multimodal Architecture for the
Detection and Classification of Misogynous Memes [9.66022279280394]
本稿では,テキストと視覚的特徴を組み合わせたマルチモーダルアーキテクチャを提案する。
課題は、ある文書が偽造であるかどうかを分類することである。
論文 参考訳(メタデータ) (2022-04-13T11:03:21Z) - Detecting Harmful Memes and Their Targets [27.25262711136056]
COVID-19に関連する3,544のミームを含む最初のベンチマークデータセットであるHarMemeを紹介します。
第1段階では、ミームを非常に有害、部分的に有害、または無害とラベル付けし、第2段階では、有害ミームが示す標的の種類をさらにアノテートした。
10の単一モーダルモデルとマルチモーダルモデルによる評価結果は、両方のタスクにマルチモーダル信号を使用することの重要性を強調している。
論文 参考訳(メタデータ) (2021-09-24T17:11:42Z) - TrollsWithOpinion: A Dataset for Predicting Domain-specific Opinion
Manipulation in Troll Memes [4.513166202592557]
我々は英語で8,881 IWTまたはマルチモーダルミームを分類する(TrollsWith データセット)
これらのミームは、デミア、ハラス、またはいじめ対象の個人を誘惑する可能性がある。
我々は注釈付きデータセットのベースライン実験を行い、既存の最先端技術が平均0.37の重み付きF1スコアにしか達しないことを示した。
論文 参考訳(メタデータ) (2021-09-08T12:12:13Z) - Memes in the Wild: Assessing the Generalizability of the Hateful Memes
Challenge Dataset [47.65948529524281]
Pinterestからヘイトフルで非ヘイトフルなミームを収集して、Facebookデータセットで事前トレーニングされたモデルで、サンプル外のパフォーマンスを評価します。
1) キャプションをOCRで抽出しなければならない,2) ミームは従来のミームよりも多様であり, 会話のスクリーンショットやテキストをプレーンな背景に表示する,という2つの重要な側面がある。
論文 参考訳(メタデータ) (2021-07-09T09:04:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。