論文の概要: ToxicTAGS: Decoding Toxic Memes with Rich Tag Annotations
- arxiv url: http://arxiv.org/abs/2508.04166v1
- Date: Wed, 06 Aug 2025 07:46:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-07 20:09:22.60269
- Title: ToxicTAGS: Decoding Toxic Memes with Rich Tag Annotations
- Title(参考訳): ToxicTAGS: リッチタグアノテーションによるToxic Memesのデコード
- Authors: Subhankar Swain, Naquee Rizwan, Nayandeep Deb, Vishwajeet Singh Solanki, Vishwa Gangadhar S, Animesh Mukherjee,
- Abstract要約: 筆者らは,<i>2</i>を毒性および正常に分類し,<i>2</i>を<i>2</i>に分類し,<i>2</i>を<i>2</i>に分類し,<i>2</i>を<i>2</i>に分類した。
このデータセットの重要な特徴は、各ミームのコンテキストを強化するために、社会的に関連付けられたタグの補助メタデータが強化されていることである。
- 参考スコア(独自算出の注目度): 3.708799808977489
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The 2025 Global Risks Report identifies state-based armed conflict and societal polarisation among the most pressing global threats, with social media playing a central role in amplifying toxic discourse. Memes, as a widely used mode of online communication, often serve as vehicles for spreading harmful content. However, limitations in data accessibility and the high cost of dataset curation hinder the development of robust meme moderation systems. To address this challenge, in this work, we introduce a first-of-its-kind dataset of 6,300 real-world meme-based posts annotated in two stages: (i) binary classification into toxic and normal, and (ii) fine-grained labelling of toxic memes as hateful, dangerous, or offensive. A key feature of this dataset is that it is enriched with auxiliary metadata of socially relevant tags, enhancing the context of each meme. In addition, we propose a tag generation module that produces socially grounded tags, because most in-the-wild memes often do not come with tags. Experimental results show that incorporating these tags substantially enhances the performance of state-of-the-art VLMs detection tasks. Our contributions offer a novel and scalable foundation for improved content moderation in multimodal online environments.
- Abstract(参考訳): 2025年のGlobal Risks Reportは、ソーシャルメディアが有害な言論を増幅する中心的な役割を担いながら、国家ベースの武力衝突と社会の分極を最も迫られている世界的脅威の中で特定している。
ミームは、広く使われているオンラインコミュニケーションのモードとして、しばしば有害なコンテンツを広めるための車両として機能する。
しかし、データアクセシビリティの制限とデータセットキュレーションの高コストは、堅牢なミームモデレーションシステムの開発を妨げる。
この課題に対処するため,本研究では,2段階の注釈付き6300件のリアルワールド・ミームベースの投稿をファースト・オブ・ザ・キンド・データセットとして紹介する。
(i)二分体を毒性と正常に分類し、
(二)有害ミームの微粒なラベル付けを憎悪、危険、または不快とする。
このデータセットの重要な特徴は、各ミームのコンテキストを強化するために、社会的に関連付けられたタグの補助メタデータが強化されていることである。
また,ほとんどの組込みミームはタグを伴わないため,社会的に接地されたタグを生成するタグ生成モジュールを提案する。
実験結果から,これらのタグを組み込むことで,最先端のVLM検出タスクの性能が大幅に向上することが示された。
私たちのコントリビューションは、マルチモーダルオンライン環境におけるコンテンツモデレーションを改善するための、新しくスケーラブルな基盤を提供します。
関連論文リスト
- MemeMind: A Large-Scale Multimodal Dataset with Chain-of-Thought Reasoning for Harmful Meme Detection [4.09109557328609]
有害なミームは、暗黙のセマンティクスと複雑なマルチモーダル相互作用による自動検出に重大な課題をもたらす。
MemeMindは、科学的に厳格な標準、大規模、多様性、バイリンガルサポート(中国語と英語)、詳細なChain-of-Thought(CoT)アノテーションを備えた、新しいデータセットである。
本稿では,マルチモーダル情報と推論プロセスモデリングを効果的に統合した,革新的な検出フレームワークMemeGuardを提案する。
論文 参考訳(メタデータ) (2025-06-15T13:45:30Z) - ShieldVLM: Safeguarding the Multimodal Implicit Toxicity via Deliberative Reasoning with LVLMs [72.8646625127485]
マルチモーダルな暗黙の毒性は、社会プラットフォームにおける形式的なステートメントとしてだけでなく、有害なダイアログにつながる可能性がある。
単調なテキストや画像のモデレーションの成功にもかかわらず、多モーダルな内容、特に多モーダルな暗黙的な毒性に対する毒性の検出は未発見のままである。
マルチモーダルな暗黙的毒性の検出を促進するために,多モーダルな文,プロンプト,ダイアログにおける暗黙的な毒性を認識するモデルであるShieldVLMを構築した。
論文 参考訳(メタデータ) (2025-05-20T07:31:17Z) - MemeSense: An Adaptive In-Context Framework for Social Commonsense Driven Meme Moderation [3.763944391065958]
本稿では,ソーシャルコモンセンス推論を視覚的および意味論的に関連付けられた参照例と融合する,適応型インコンテキスト学習フレームワークであるMemeSenseを紹介する。
MemeSenseは、語彙的、視覚的、倫理的な考慮を効果的にバランスさせ、正確かつコンテキスト対応のミーム介入を可能にする。
論文 参考訳(メタデータ) (2025-02-16T19:46:24Z) - MemeGuard: An LLM and VLM-based Framework for Advancing Content Moderation via Meme Intervention [43.849634264271565]
textitMemeGuardは,大規模言語モデル(LLM)とビジュアル言語モデル(VLM)を活用した包括的なフレームワークである。
textitMemeGuardは、特別に微調整されたVLM、textitVLMeme、ミーム解釈、マルチモーダルな知識選択とランキング機構を利用する。
我々はtextitICMM を利用して textitMemeGuard をテストする。
論文 参考訳(メタデータ) (2024-06-08T04:09:20Z) - Into the LAIONs Den: Investigating Hate in Multimodal Datasets [67.21783778038645]
本稿では、LAION-400MとLAION-2Bの2つのデータセットの比較監査を通して、ヘイトフルコンテンツに対するデータセットのスケーリングの効果について検討する。
その結果、データセットのスケールによってヘイトコンテンツは12%近く増加し、質的にも定量的にも測定された。
また、画像のみに基づいて算出されたNot Safe For Work(NSFW)値に基づくデータセットの内容のフィルタリングは、アルトテキストにおける有害なコンテンツをすべて排除するものではないことがわかった。
論文 参考訳(メタデータ) (2023-11-06T19:00:05Z) - Beyond Toxic: Toxicity Detection Datasets are Not Enough for Brand
Safety [0.0]
ブランド安全は、広告が表示されないコンテキストを特定することで、商業ブランドを保護することを目的としている。
我々は、一般的な毒性検出データセットを応用して、ブランドの安全特定データセットを構築する必要性を実証する。
テキスト分類における重み付けサンプリング戦略の効果を実証分析する。
論文 参考訳(メタデータ) (2023-03-27T11:29:09Z) - Micro-video Tagging via Jointly Modeling Social Influence and Tag
Relation [56.23157334014773]
85.7%のマイクロビデオにはアノテーションがない。
既存の手法は、主にビデオコンテンツの分析、ユーザの社会的影響やタグ関係を無視することに焦点を当てている。
構築したヘテロジニアスネットワークにおけるリンク予測問題として,マイクロビデオタギングを定式化する。
論文 参考訳(メタデータ) (2023-03-15T02:13:34Z) - Countering Malicious Content Moderation Evasion in Online Social
Networks: Simulation and Detection of Word Camouflage [64.78260098263489]
ツイストとカモフラージュキーワードは、プラットフォームコンテンツモデレーションシステムを回避する最もよく使われるテクニックである。
本稿では,コンテンツ回避の新たな手法をシミュレートし,検出する多言語ツールを開発することにより,悪意ある情報に対する対処に大きく貢献する。
論文 参考訳(メタデータ) (2022-12-27T16:08:49Z) - DisinfoMeme: A Multimodal Dataset for Detecting Meme Intentionally
Spreading Out Disinformation [72.18912216025029]
偽情報ミームの検出を支援するためにDisinfoMemeを提案する。
このデータセットには、COVID-19パンデミック、Black Lives Matter運動、ベジタリアン/ベジタリアンという3つのトピックをカバーするRedditのミームが含まれている。
論文 参考訳(メタデータ) (2022-05-25T09:54:59Z) - Detecting and Understanding Harmful Memes: A Survey [48.135415967633676]
我々は有害なミームに焦点を当てた総合的な調査を行っている。
興味深い発見の1つは、多くの有害ミームが実際には研究されていないことである。
別の観察では、ミームは異なる言語で再パッケージ化することでグローバルに伝播し、多言語化することもできる。
論文 参考訳(メタデータ) (2022-05-09T13:43:27Z) - Understanding and Detecting Dangerous Speech in Social Media [9.904746542801837]
オンライン環境における物理的な脅威のような危険な言語は、やや珍しいが、それでも非常に重要である。
危険音声のためのラベル付きデータセットを構築し、危険コンテンツを検出するための高効率なモデルを開発する。
我々の最良のモデルは59.60%のマクロF1で動作し、競合するベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2020-05-04T09:42:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。