論文の概要: Detecting Hate and Inflammatory Content in Bengali Memes: A New Multimodal Dataset and Co-Attention Framework
- arxiv url: http://arxiv.org/abs/2602.22391v1
- Date: Wed, 25 Feb 2026 20:40:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.397835
- Title: Detecting Hate and Inflammatory Content in Bengali Memes: A New Multimodal Dataset and Co-Attention Framework
- Title(参考訳): ベンガルミームにおけるHateと炎症内容の検出:新しいマルチモーダルデータセットとコアテンションフレームワーク
- Authors: Rakib Ullah, Mominul islam, Md Sanjid Hossain, Md Ismail Hossain,
- Abstract要約: 今回,Bn-HIB (Bangla Hate Inflammatory Benign) について紹介する。
Bn-HIBはベンガルのミームにおける直接ヘイトスピーチと炎症性コンテンツを区別する最初のデータセットである。
本稿では,MCFM(Multi-Modal Co-Attention Fusion Model)を提案する。
- 参考スコア(独自算出の注目度): 0.1499944454332829
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Internet memes have become a dominant form of expression on social media, including within the Bengali-speaking community. While often humorous, memes can also be exploited to spread offensive, harmful, and inflammatory content targeting individuals and groups. Detecting this type of content is excep- tionally challenging due to its satirical, subtle, and culturally specific nature. This problem is magnified for low-resource lan- guages like Bengali, as existing research predominantly focuses on high-resource languages. To address this critical research gap, we introduce Bn-HIB (Bangla Hate Inflammatory Benign), a novel dataset containing 3,247 manually annotated Bengali memes categorized as Benign, Hate, or Inflammatory. Significantly, Bn- HIB is the first dataset to distinguish inflammatory content from direct hate speech in Bengali memes. Furthermore, we propose the MCFM (Multi-Modal Co-Attention Fusion Model), a simple yet effective architecture that mutually analyzes both the visual and textual elements of a meme. MCFM employs a co-attention mechanism to identify and fuse the most critical features from each modality, leading to a more accurate classification. Our experiments show that MCFM significantly outperforms several state-of-the-art models on the Bn-HIB dataset, demonstrating its effectiveness in this nuanced task.Warning: This work contains material that may be disturbing to some audience members. Viewer discretion is advised.
- Abstract(参考訳): インターネットのミームは、ベンガル語を話すコミュニティを含むソーシャルメディア上で支配的な表現形態となっている。
しばしばユーモラスであるが、ミームは個人やグループを標的とした攻撃的で有害で炎症性のある内容の拡散にも利用される。
このタイプのコンテンツを検出することは、風刺的で微妙で文化的に特有の性質のため、極端に難しい。
この問題はBengaliのような低リソースのlan-guageに対して拡大され、既存の研究は主に高リソース言語に焦点を当てている。
Bn-HIB(Bangla Hate Inflammatory Benign, Bn-HIB)は, Bn-HIB(Bangla Hate Inflammatory Benign, Bn-HIB)とBn-HIB(Bangla Hate Inflammatory Benign, Bn-HIB, Bn-HIB)とBn-HIB(Bangla Hate Inflammatory Benign, Bn-HIB)とBn-HIB(Bangla Hate Inflammatory Benign, Bn-HIBB, Bn-HIBBBB)の3,Bn-HIB。
重要なことに、Bn-HIBはベンガルのミームにおける直接ヘイトスピーチと炎症性コンテンツを区別する最初のデータセットである。
さらに,MCFM(Multi-Modal Co-Attention Fusion Model)を提案する。
MCFMは、各モードから最も重要な特徴を特定し、融合させるコアテンション機構を採用しており、より正確な分類に繋がる。
我々の実験によると、MCFMはBn-HIBデータセット上でいくつかの最先端モデルよりも大幅に優れており、このニュアンスなタスクにおける有効性を示している。
視聴者の判断は推奨される。
関連論文リスト
- MemeReaCon: Probing Contextual Meme Understanding in Large Vision-Language Models [50.2355423914562]
我々は,LVLM(Large Vision Language Models)がミームを本来の文脈でどのように理解するかを評価するために設計された,新しいベンチマークであるMemeReaConを紹介する。
私たちは5つのRedditコミュニティからミームを収集し、各ミームの画像、ポストテキスト、ユーザーコメントを一緒に保持しました。
モデルは文脈において重要な情報を解釈できないか、あるいはコミュニケーション目的を見越しながら視覚的詳細に過度に焦点を合わせるかのどちらかです。
論文 参考訳(メタデータ) (2025-05-23T03:27:23Z) - MemeBLIP2: A novel lightweight multimodal system to detect harmful memes [10.174106475035689]
画像とテキストの特徴を効果的に組み合わせることで有害なミームを検出する軽量マルチモーダルシステムであるMemeBLIP2を紹介する。
我々は、画像とテキストの表現を共有空間に整列させるモジュールを追加し、より良い分類のためにそれらを融合させることにより、以前の研究に基づいて構築した。
その結果,MemeBLIP2は,皮肉な内容や文化的な内容であっても,両モードとも微妙な手がかりを捉えることができることがわかった。
論文 参考訳(メタデータ) (2025-04-29T23:41:06Z) - Deciphering Hate: Identifying Hateful Memes and Their Targets [4.574830585715128]
BHMにおけるヘイトフルミーム検出のための新しいデータセットについて紹介する。
データセットは、7,148のミームとコードミキシングされたキャプションで構成され、(i)憎しみのあるミームを検知し、(ii)ターゲットとする社会的実体を検知する。
これらの課題を解決するために,メメから重要なモダリティ特徴を体系的に抽出するマルチモーダルディープニューラルネットワークDORAを提案する。
論文 参考訳(メタデータ) (2024-03-16T06:39:41Z) - Meme-ingful Analysis: Enhanced Understanding of Cyberbullying in Memes
Through Multimodal Explanations [48.82168723932981]
Em MultiBully-Exは、コード混在型サイバーいじめミームからマルチモーダルな説明を行うための最初のベンチマークデータセットである。
ミームの視覚的およびテキスト的説明のために,コントラスト言語-画像事前学習 (CLIP) アプローチが提案されている。
論文 参考訳(メタデータ) (2024-01-18T11:24:30Z) - BanglaAbuseMeme: A Dataset for Bengali Abusive Meme Classification [11.04522597948877]
個人やコミュニティを悪用する単純で効果的な方法はミームを作ることである。
このような有害な要素は普及しており、オンラインの安全を脅かしている。
乱用ミームを検知・フラグする効率的なモデルを開発する必要がある。
論文 参考訳(メタデータ) (2023-10-18T07:10:47Z) - DisinfoMeme: A Multimodal Dataset for Detecting Meme Intentionally
Spreading Out Disinformation [72.18912216025029]
偽情報ミームの検出を支援するためにDisinfoMemeを提案する。
このデータセットには、COVID-19パンデミック、Black Lives Matter運動、ベジタリアン/ベジタリアンという3つのトピックをカバーするRedditのミームが含まれている。
論文 参考訳(メタデータ) (2022-05-25T09:54:59Z) - DISARM: Detecting the Victims Targeted by Harmful Memes [49.12165815990115]
DISARMは、有害なミームを検出するために名前付きエンティティ認識と個人識別を使用するフレームワークである。
DISARMは10の単一モーダル・マルチモーダルシステムより著しく優れていることを示す。
複数の強力なマルチモーダルライバルに対して、有害なターゲット識別の相対誤差率を最大9ポイントまで下げることができる。
論文 参考訳(メタデータ) (2022-05-11T19:14:26Z) - Detecting and Understanding Harmful Memes: A Survey [48.135415967633676]
我々は有害なミームに焦点を当てた総合的な調査を行っている。
興味深い発見の1つは、多くの有害ミームが実際には研究されていないことである。
別の観察では、ミームは異なる言語で再パッケージ化することでグローバルに伝播し、多言語化することもできる。
論文 参考訳(メタデータ) (2022-05-09T13:43:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。