論文の概要: DISARM: Detecting the Victims Targeted by Harmful Memes
- arxiv url: http://arxiv.org/abs/2205.05738v1
- Date: Wed, 11 May 2022 19:14:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-14 04:41:21.070344
- Title: DISARM: Detecting the Victims Targeted by Harmful Memes
- Title(参考訳): DisARM: 有害なミームを狙った被害者を検知
- Authors: Shivam Sharma, Md. Shad Akhtar, Preslav Nakov, Tanmoy Chakraborty
- Abstract要約: DISARMは、有害なミームを検出するために名前付きエンティティ認識と個人識別を使用するフレームワークである。
DISARMは10の単一モーダル・マルチモーダルシステムより著しく優れていることを示す。
複数の強力なマルチモーダルライバルに対して、有害なターゲット識別の相対誤差率を最大9ポイントまで下げることができる。
- 参考スコア(独自算出の注目度): 49.12165815990115
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Internet memes have emerged as an increasingly popular means of communication
on the Web. Although typically intended to elicit humour, they have been
increasingly used to spread hatred, trolling, and cyberbullying, as well as to
target specific individuals, communities, or society on political,
socio-cultural, and psychological grounds. While previous work has focused on
detecting harmful, hateful, and offensive memes, identifying whom they attack
remains a challenging and underexplored area. Here we aim to bridge this gap.
In particular, we create a dataset where we annotate each meme with its
victim(s) such as the name of the targeted person(s), organization(s), and
community(ies). We then propose DISARM (Detecting vIctimS targeted by hARmful
Memes), a framework that uses named entity recognition and person
identification to detect all entities a meme is referring to, and then,
incorporates a novel contextualized multimodal deep neural network to classify
whether the meme intends to harm these entities. We perform several systematic
experiments on three test setups, corresponding to entities that are (a) all
seen while training, (b) not seen as a harmful target on training, and (c) not
seen at all on training. The evaluation results show that DISARM significantly
outperforms ten unimodal and multimodal systems. Finally, we show that DISARM
is interpretable and comparatively more generalizable and that it can reduce
the relative error rate for harmful target identification by up to 9 points
absolute over several strong multimodal rivals.
- Abstract(参考訳): インターネットミームは、ウェブ上でのコミュニケーション手段としてますます人気が高まっている。
通常、ユーモアを誘発することを目的としているが、憎しみ、荒らし、サイバーいじめ、特定の個人、コミュニティ、社会を政治的、社会文化的、心理的な理由から標的にするためにますます使われてきた。
これまでの研究は有害で憎悪的で攻撃的なミームの発見に重点を置いてきたが、攻撃対象を特定することは依然として困難で未調査の分野である。
ここではこのギャップを埋めることを目指しています。
特に、対象者の名前、組織、コミュニティ(ies)など、各ミームに被害者をアノテートするデータセットを作成します。
次に、名前付きエンティティ認識と人物識別を用いて、ミームが参照しているすべてのエンティティを検知するフレームワークであるdisARM(hARmful Memesが対象とするvIctimSの検出)を提案し、ミームがこれらのエンティティを害するかどうかを分類するために、新しいコンテキスト化されたマルチモーダルディープニューラルネットワークを組み込む。
3つのテストの設定でいくつかの系統的な実験を行いました。
(a)すべて訓練中に見られる。
(b)訓練上の有害な標的とは見なされず、
(c)訓練では全く見られなかった。
評価結果から,disARMは10の単一モード・マルチモーダルシステムより有意に優れていた。
最後に、 DisARM は解釈可能であり、相対的に一般化可能であり、有害なターゲット識別に対する相対誤差を複数の強力なマルチモーダルライバルに対して最大9ポイントまで低減できることを示す。
関連論文リスト
- Deciphering Hate: Identifying Hateful Memes and Their Targets [4.574830585715128]
BHMにおけるヘイトフルミーム検出のための新しいデータセットについて紹介する。
データセットは、7,148のミームとコードミキシングされたキャプションで構成され、(i)憎しみのあるミームを検知し、(ii)ターゲットとする社会的実体を検知する。
これらの課題を解決するために,メメから重要なモダリティ特徴を体系的に抽出するマルチモーダルディープニューラルネットワークDORAを提案する。
論文 参考訳(メタデータ) (2024-03-16T06:39:41Z) - Zero shot VLMs for hate meme detection: Are we there yet? [9.970031080934003]
本研究では,ヘイト・ミーム検出などの複雑なタスクに対する視覚言語モデルの有効性について検討した。
我々は、大きなVLMが未だにゼロショットのヘイトミーム検出に弱いことを観察する。
論文 参考訳(メタデータ) (2024-02-19T15:03:04Z) - Meme-ingful Analysis: Enhanced Understanding of Cyberbullying in Memes
Through Multimodal Explanations [48.82168723932981]
Em MultiBully-Exは、コード混在型サイバーいじめミームからマルチモーダルな説明を行うための最初のベンチマークデータセットである。
ミームの視覚的およびテキスト的説明のために,コントラスト言語-画像事前学習 (CLIP) アプローチが提案されている。
論文 参考訳(メタデータ) (2024-01-18T11:24:30Z) - Characterizing the Entities in Harmful Memes: Who is the Hero, the
Villain, the Victim? [39.55435707149863]
我々は、ミームが参照するエンティティを栄光し、悪用し、または犠牲にするかどうかを理解することを目指している。
提案モデルでは,最高のベースラインに対して4%,最も競合するスタンドアローンのサブミッションに対して1%の改善が達成されている。
論文 参考訳(メタデータ) (2023-01-26T16:55:15Z) - DisinfoMeme: A Multimodal Dataset for Detecting Meme Intentionally
Spreading Out Disinformation [72.18912216025029]
偽情報ミームの検出を支援するためにDisinfoMemeを提案する。
このデータセットには、COVID-19パンデミック、Black Lives Matter運動、ベジタリアン/ベジタリアンという3つのトピックをカバーするRedditのミームが含まれている。
論文 参考訳(メタデータ) (2022-05-25T09:54:59Z) - Detecting and Understanding Harmful Memes: A Survey [48.135415967633676]
我々は有害なミームに焦点を当てた総合的な調査を行っている。
興味深い発見の1つは、多くの有害ミームが実際には研究されていないことである。
別の観察では、ミームは異なる言語で再パッケージ化することでグローバルに伝播し、多言語化することもできる。
論文 参考訳(メタデータ) (2022-05-09T13:43:27Z) - Feels Bad Man: Dissecting Automated Hateful Meme Detection Through the
Lens of Facebook's Challenge [10.775419935941008]
我々は,現在最先端のマルチモーダル機械学習モデルのヘイトフルミーム検出に対する有効性を評価する。
4chanの"Politically Incorrect"ボード(/pol/)とFacebookのHateful Memes Challengeデータセットの12,140と10,567の2つのベンチマークデータセットを使用します。
分類性能におけるマルチモーダリティの重要性,主流のソーシャルプラットフォーム上でのWebコミュニティの影響力,その逆の3つの実験を行った。
論文 参考訳(メタデータ) (2022-02-17T07:52:22Z) - MOMENTA: A Multimodal Framework for Detecting Harmful Memes and Their
Targets [28.877314859737197]
我々は,有害ミームの検出と,対象とする社会的実体の特定という,新たな2つの課題を解決しようとしている。
特に,有害ミームの検出と,対象とする社会的実体の特定という,新たな2つの課題の解決を目指す。
我々は,世界的および地域的視点を用いて有害ミームを検出する,新しいマルチモーダル(テキスト+画像)ディープニューラルモデルMOMENTAを提案する。
論文 参考訳(メタデータ) (2021-09-11T04:29:32Z) - Double Targeted Universal Adversarial Perturbations [83.60161052867534]
本稿では, インスタンス別画像依存摂動と汎用的普遍摂動のギャップを埋めるために, 二重目標普遍摂動(DT-UAP)を導入する。
提案したDTAアルゴリズムの幅広いデータセットに対する有効性を示すとともに,物理攻撃の可能性を示す。
論文 参考訳(メタデータ) (2020-10-07T09:08:51Z) - Measurement-driven Security Analysis of Imperceptible Impersonation
Attacks [54.727945432381716]
本稿では,ディープニューラルネットワークを用いた顔認識システムの実用性について検討する。
皮膚の色,性別,年齢などの要因が,特定の標的に対する攻撃を行う能力に影響を及ぼすことを示す。
また,攻撃者の顔のさまざまなポーズや視点に対して堅牢なユニバーサルアタックを構築する可能性についても検討した。
論文 参考訳(メタデータ) (2020-08-26T19:27:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。