論文の概要: Disentangling Hate in Online Memes
- arxiv url: http://arxiv.org/abs/2108.06207v1
- Date: Mon, 9 Aug 2021 06:46:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-22 15:35:29.748404
- Title: Disentangling Hate in Online Memes
- Title(参考訳): オンラインミームにおける憎しみの解消
- Authors: Rui Cao, Ziqing Fan, Roy Ka-Wei Lee, Wen-Haw Chong, Jing Jiang
- Abstract要約: DisMultiHateはマルチモーダルヘイトフルコンテンツの分類を行う新しいフレームワークである。
DisMultiHateは、ヘイトフルなミーム分類タスクにおいて、最先端のユニモーダルとマルチモーダルのベースラインを上回ります。
- 参考スコア(独自算出の注目度): 10.979379127937118
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hateful and offensive content detection has been extensively explored in a
single modality such as text. However, such toxic information could also be
communicated via multimodal content such as online memes. Therefore, detecting
multimodal hateful content has recently garnered much attention in academic and
industry research communities. This paper aims to contribute to this emerging
research topic by proposing DisMultiHate, which is a novel framework that
performed the classification of multimodal hateful content. Specifically,
DisMultiHate is designed to disentangle target entities in multimodal memes to
improve hateful content classification and explainability. We conduct extensive
experiments on two publicly available hateful and offensive memes datasets. Our
experiment results show that DisMultiHate is able to outperform
state-of-the-art unimodal and multimodal baselines in the hateful meme
classification task. Empirical case studies were also conducted to demonstrate
DisMultiHate's ability to disentangle target entities in memes and ultimately
showcase DisMultiHate's explainability of the multimodal hateful content
classification task.
- Abstract(参考訳): 不快で不快なコンテンツ検出は、テキストのような単一のモダリティで広く研究されている。
しかし、このような有害な情報は、オンラインミームのようなマルチモーダルコンテンツを通しても伝達できる。
それゆえ、近年、多様で憎悪的なコンテンツの検出は、学術的・産業的な研究コミュニティに大きな注目を集めている。
本稿では,マルチモーダル・ヘイトフルコンテンツの分類を行う新たな枠組みであるdismultihateを提案することで,この新たな研究課題への貢献を目指す。
具体的には、dismultihateはターゲットエンティティをマルチモーダルミームで分離し、憎悪のあるコンテンツ分類と説明可能性を改善するように設計されている。
公開のヘイトフルミームデータセットとアグレッシブミームデータセットについて,広範な実験を行う。
実験の結果,DisMultiHateは,憎しみのあるミーム分類タスクにおいて,最先端のユニモーダルベースラインやマルチモーダルベースラインより優れていることがわかった。
また、DisMultiHateのミーム内でターゲットエンティティをアンタングルする能力を実証し、最終的にはマルチモーダルヘイトフルコンテンツ分類タスクのDisMultiHateの説明可能性を示す実験ケーススタディも行われた。
関連論文リスト
- HateSieve: A Contrastive Learning Framework for Detecting and Segmenting Hateful Content in Multimodal Memes [8.97062933976566]
textscHateSieveは、ミーム内の憎しみのある要素の検出とセグメンテーションを強化するために設計されたフレームワークである。
textscHateSieveは、セマンティックなペアのミームを生成するContrastive Meme Generatorを特徴としている。
Hateful Memeでの実証実験では、textscHateSieveはトレーニング可能なパラメータが少なく、既存のLMMを超えるだけでなく、ヘイトフルコンテンツを正確に識別し、分離するための堅牢なメカニズムを提供する。
論文 参考訳(メタデータ) (2024-08-11T14:56:06Z) - Meme-ingful Analysis: Enhanced Understanding of Cyberbullying in Memes
Through Multimodal Explanations [48.82168723932981]
Em MultiBully-Exは、コード混在型サイバーいじめミームからマルチモーダルな説明を行うための最初のベンチマークデータセットである。
ミームの視覚的およびテキスト的説明のために,コントラスト言語-画像事前学習 (CLIP) アプローチが提案されている。
論文 参考訳(メタデータ) (2024-01-18T11:24:30Z) - Detecting and Grounding Multi-Modal Media Manipulation and Beyond [93.08116982163804]
マルチモーダルフェイクメディア(DGM4)の新たな研究課題について述べる。
DGM4は、マルチモーダルメディアの真正性を検出するだけでなく、操作されたコンテンツも検出することを目的としている。
本稿では,異なるモーダル間のきめ細かい相互作用を完全に捉えるために,新しい階層型マルチモーダルマニピュレーションrEasoning tRansformer(HAMMER)を提案する。
論文 参考訳(メタデータ) (2023-09-25T15:05:46Z) - Inconsistent Matters: A Knowledge-guided Dual-consistency Network for
Multi-modal Rumor Detection [53.48346699224921]
マルチメディアコンテンツによる噂を検出するために,知識誘導型二元整合ネットワークを提案する。
2つの一貫性検出ツールを使用して、クロスモーダルレベルとコンテント知識レベルの不整合を同時にキャプチャする。
また、異なる視覚的モダリティ条件下で頑健なマルチモーダル表現学習を可能にする。
論文 参考訳(メタデータ) (2023-06-03T15:32:20Z) - DisinfoMeme: A Multimodal Dataset for Detecting Meme Intentionally
Spreading Out Disinformation [72.18912216025029]
偽情報ミームの検出を支援するためにDisinfoMemeを提案する。
このデータセットには、COVID-19パンデミック、Black Lives Matter運動、ベジタリアン/ベジタリアンという3つのトピックをカバーするRedditのミームが含まれている。
論文 参考訳(メタデータ) (2022-05-25T09:54:59Z) - DISARM: Detecting the Victims Targeted by Harmful Memes [49.12165815990115]
DISARMは、有害なミームを検出するために名前付きエンティティ認識と個人識別を使用するフレームワークである。
DISARMは10の単一モーダル・マルチモーダルシステムより著しく優れていることを示す。
複数の強力なマルチモーダルライバルに対して、有害なターゲット識別の相対誤差率を最大9ポイントまで下げることができる。
論文 参考訳(メタデータ) (2022-05-11T19:14:26Z) - Detecting and Understanding Harmful Memes: A Survey [48.135415967633676]
我々は有害なミームに焦点を当てた総合的な調査を行っている。
興味深い発見の1つは、多くの有害ミームが実際には研究されていないことである。
別の観察では、ミームは異なる言語で再パッケージ化することでグローバルに伝播し、多言語化することもできる。
論文 参考訳(メタデータ) (2022-05-09T13:43:27Z) - On Explaining Multimodal Hateful Meme Detection Models [4.509263496823139]
これらのモデルがマルチモーダルでデロゲーションまたはスラー参照をキャプチャできるかどうかは不明である。
その結果,画像のモダリティは,憎しみに満ちたミーム分類タスクに寄与することが判明した。
誤差分析の結果,視覚言語モデルではバイアスが得られ,偽陽性の予測が得られた。
論文 参考訳(メタデータ) (2022-04-04T15:35:41Z) - A Multimodal Framework for the Detection of Hateful Memes [16.7604156703965]
我々は憎しみのあるミームを検出するフレームワークの開発を目指している。
マルチモーダルとアンサンブル学習を促進するために,比較例のアップサンプリングの有効性を示す。
私たちの最良のアプローチは、UNITERベースのモデルのアンサンブルで構成され、80.53のAUROCスコアを達成し、Facebookが主催する2020 Hateful Memes Challengeのフェーズ2で4位になります。
論文 参考訳(メタデータ) (2020-12-23T18:37:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。