論文の概要: Feels Bad Man: Dissecting Automated Hateful Meme Detection Through the
Lens of Facebook's Challenge
- arxiv url: http://arxiv.org/abs/2202.08492v1
- Date: Thu, 17 Feb 2022 07:52:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-18 15:50:43.555121
- Title: Feels Bad Man: Dissecting Automated Hateful Meme Detection Through the
Lens of Facebook's Challenge
- Title(参考訳): 嫌な男:Facebookの挑戦のレンズを通して、嫌なミームを自動的に検出する
- Authors: Catherine Jennifer, Fatemeh Tahmasbi, Jeremy Blackburn, Gianluca
Stringhini, Savvas Zannettou, and Emiliano De Cristofaro
- Abstract要約: 我々は,現在最先端のマルチモーダル機械学習モデルのヘイトフルミーム検出に対する有効性を評価する。
4chanの"Politically Incorrect"ボード(/pol/)とFacebookのHateful Memes Challengeデータセットの12,140と10,567の2つのベンチマークデータセットを使用します。
分類性能におけるマルチモーダリティの重要性,主流のソーシャルプラットフォーム上でのWebコミュニティの影響力,その逆の3つの実験を行った。
- 参考スコア(独自算出の注目度): 10.775419935941008
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Internet memes have become a dominant method of communication; at the same
time, however, they are also increasingly being used to advocate extremism and
foster derogatory beliefs. Nonetheless, we do not have a firm understanding as
to which perceptual aspects of memes cause this phenomenon. In this work, we
assess the efficacy of current state-of-the-art multimodal machine learning
models toward hateful meme detection, and in particular with respect to their
generalizability across platforms. We use two benchmark datasets comprising
12,140 and 10,567 images from 4chan's "Politically Incorrect" board (/pol/) and
Facebook's Hateful Memes Challenge dataset to train the competition's
top-ranking machine learning models for the discovery of the most prominent
features that distinguish viral hateful memes from benign ones. We conduct
three experiments to determine the importance of multimodality on
classification performance, the influential capacity of fringe Web communities
on mainstream social platforms and vice versa, and the models' learning
transferability on 4chan memes. Our experiments show that memes' image
characteristics provide a greater wealth of information than its textual
content. We also find that current systems developed for online detection of
hate speech in memes necessitate further concentration on its visual elements
to improve their interpretation of underlying cultural connotations, implying
that multimodal models fail to adequately grasp the intricacies of hate speech
in memes and generalize across social media platforms.
- Abstract(参考訳): インターネットミームはコミュニケーションの主流となっているが、同時に過激主義を提唱し、軽蔑的信念を育むためにも使われるようになっている。
いずれにせよ、ミームの知覚的側面がこの現象を引き起こすのかについては、よく分かっていない。
本研究では,現在最先端のマルチモーダル機械学習モデルのヘイトフルミーム検出に対する有効性,特にプラットフォーム間の一般化性について評価する。
4chan's "politically incorrect" board (/pol/)とfacebook's hateful memes challenge datasetの12,140と10,567の2つのベンチマークデータセットを使用して、競争のトップレベルの機械学習モデルをトレーニングし、バイラルな憎しみのあるミームと良性なミームを区別する最も顕著な特徴を発見しました。
分類性能におけるマルチモーダルの重要性,主流のソーシャルプラットフォームにおけるWebコミュニティの影響力,その逆の3つの実験を行い,モデルの4chanミームにおける学習伝達性について検討した。
実験の結果,ミームのイメージ特性はテキストの内容よりも豊富な情報を提供することがわかった。
ミームにおけるヘイトスピーチのオンライン検出のために開発された現在のシステムは、その視覚要素にさらなる集中を要し、文化的意味論の解釈を改善し、マルチモーダルモデルではミームにおけるヘイトスピーチの複雑さを十分に把握できず、ソーシャルメディアプラットフォーム全体に一般化できないことを示唆している。
関連論文リスト
- Meme-ingful Analysis: Enhanced Understanding of Cyberbullying in Memes
Through Multimodal Explanations [48.82168723932981]
Em MultiBully-Exは、コード混在型サイバーいじめミームからマルチモーダルな説明を行うための最初のベンチマークデータセットである。
ミームの視覚的およびテキスト的説明のために,コントラスト言語-画像事前学習 (CLIP) アプローチが提案されている。
論文 参考訳(メタデータ) (2024-01-18T11:24:30Z) - Contextualizing Internet Memes Across Social Media Platforms [8.22187358555391]
我々は,知識のセマンティックリポジトリ,すなわち知識グラフを用いて,インターネットミームを文脈化できるかどうかを検討する。
RedditとDiscordという2つのソーシャルメディアプラットフォームから何千もの潜在的なインターネットミーム投稿を収集し、抽出-変換-ロード手順を開発し、候補ミーム投稿とデータレイクを作成します。
視覚変換器をベースとした類似性を利用して、これらの候補をIMKGでカタログ化されたミーム(インターネットミームの知識グラフ)と比較する。
論文 参考訳(メタデータ) (2023-11-18T20:18:18Z) - On the Evolution of (Hateful) Memes by Means of Multimodal Contrastive
Learning [18.794226796466962]
複数の画像から視覚要素を合成したり、テキスト情報をヘイトフル画像と融合させたりすることで、ヘイトフルミームがどのように生成されるかを研究する。
4chanから抽出したデータセット上の我々のフレームワークを用いて、Happy Merchantミームの3.3K変種を見つける。
我々のフレームワークは、ヘイトフルミームの新たな変種をフラグ付けすることで、人間のモデレーターを助けることができると期待している。
論文 参考訳(メタデータ) (2022-12-13T13:38:04Z) - DisinfoMeme: A Multimodal Dataset for Detecting Meme Intentionally
Spreading Out Disinformation [72.18912216025029]
偽情報ミームの検出を支援するためにDisinfoMemeを提案する。
このデータセットには、COVID-19パンデミック、Black Lives Matter運動、ベジタリアン/ベジタリアンという3つのトピックをカバーするRedditのミームが含まれている。
論文 参考訳(メタデータ) (2022-05-25T09:54:59Z) - DISARM: Detecting the Victims Targeted by Harmful Memes [49.12165815990115]
DISARMは、有害なミームを検出するために名前付きエンティティ認識と個人識別を使用するフレームワークである。
DISARMは10の単一モーダル・マルチモーダルシステムより著しく優れていることを示す。
複数の強力なマルチモーダルライバルに対して、有害なターゲット識別の相対誤差率を最大9ポイントまで下げることができる。
論文 参考訳(メタデータ) (2022-05-11T19:14:26Z) - Detecting and Understanding Harmful Memes: A Survey [48.135415967633676]
我々は有害なミームに焦点を当てた総合的な調査を行っている。
興味深い発見の1つは、多くの有害ミームが実際には研究されていないことである。
別の観察では、ミームは異なる言語で再パッケージ化することでグローバルに伝播し、多言語化することもできる。
論文 参考訳(メタデータ) (2022-05-09T13:43:27Z) - Detecting Harmful Memes and Their Targets [27.25262711136056]
COVID-19に関連する3,544のミームを含む最初のベンチマークデータセットであるHarMemeを紹介します。
第1段階では、ミームを非常に有害、部分的に有害、または無害とラベル付けし、第2段階では、有害ミームが示す標的の種類をさらにアノテートした。
10の単一モーダルモデルとマルチモーダルモデルによる評価結果は、両方のタスクにマルチモーダル信号を使用することの重要性を強調している。
論文 参考訳(メタデータ) (2021-09-24T17:11:42Z) - Memes in the Wild: Assessing the Generalizability of the Hateful Memes
Challenge Dataset [47.65948529524281]
Pinterestからヘイトフルで非ヘイトフルなミームを収集して、Facebookデータセットで事前トレーニングされたモデルで、サンプル外のパフォーマンスを評価します。
1) キャプションをOCRで抽出しなければならない,2) ミームは従来のミームよりも多様であり, 会話のスクリーンショットやテキストをプレーンな背景に表示する,という2つの重要な側面がある。
論文 参考訳(メタデータ) (2021-07-09T09:04:05Z) - Entropy and complexity unveil the landscape of memes evolution [105.59074436693487]
われわれは、2011年から2020年までの10年間で、Redditから200万のビジュアルミームの進化を研究した。
ミームは新たなインターネットメタ言語の一部であるという仮説を支持する。
論文 参考訳(メタデータ) (2021-05-26T07:41:09Z) - Multimodal Learning for Hateful Memes Detection [6.6881085567421605]
本稿では,画像キャプション処理をミーム検出プロセスに組み込む新しい手法を提案する。
本モデルは,Hateful Memes Detection Challengeにおける有望な結果を得る。
論文 参考訳(メタデータ) (2020-11-25T16:49:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。