論文の概要: See, Explain, and Intervene: A Few-Shot Multimodal Agent Framework for Hateful Meme Moderation
- arxiv url: http://arxiv.org/abs/2601.04692v1
- Date: Thu, 08 Jan 2026 08:02:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:53.092763
- Title: See, Explain, and Intervene: A Few-Shot Multimodal Agent Framework for Hateful Meme Moderation
- Title(参考訳): See, Explain, and Intervene: Hateful Meme モデレーションのための数少ないマルチモーダルエージェントフレームワーク
- Authors: Naquee Rizwan, Subhankar Swain, Paramananda Bhaskar, Gagan Aryan, Shehryaar Shah Khan, Animesh Mukherjee,
- Abstract要約: 我々は、有害なミームを3つの補完的な角度から調べる: それらを検出する方法、その内容を説明する方法、投稿前に介入する方法。
本稿では,タスク固有の生成的マルチモーダルエージェントと大規模マルチモーダルモデルの少数ショット適応性を活用して,異なる種類のミームに対応する新しいフレームワークを提案する。
これは、限られたデータ条件下での一般化可能なヘイトフルなミームのモデレーションに焦点を当てた最初の作業であり、実際の運用シナリオに展開する可能性も強い、と私たちは信じています。
- 参考スコア(独自算出の注目度): 5.030563948128189
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we examine hateful memes from three complementary angles - how to detect them, how to explain their content and how to intervene them prior to being posted - by applying a range of strategies built on top of generative AI models. To the best of our knowledge, explanation and intervention have typically been studied separately from detection, which does not reflect real-world conditions. Further, since curating large annotated datasets for meme moderation is prohibitively expensive, we propose a novel framework that leverages task-specific generative multimodal agents and the few-shot adaptability of large multimodal models to cater to different types of memes. We believe this is the first work focused on generalizable hateful meme moderation under limited data conditions, and has strong potential for deployment in real-world production scenarios. Warning: Contains potentially toxic contents.
- Abstract(参考訳): 本研究では、生成AIモデル上に構築されたさまざまな戦略を適用することで、有害なミームを3つの補完的な角度から調べる。
我々の知る限りでは、説明と介入は通常、現実世界の状態を反映しない検出から別々に研究されている。
さらに, マイムモデレーションのための大規模アノテートデータセットのキュレーションは極めて高価であるため, タスク固有の生成的マルチモーダルエージェントと, 大規模マルチモーダルモデルの少数の適応性を活用して, 異なる種類のミームに適応するフレームワークを提案する。
これは、限られたデータ条件下での一般化可能なヘイトフルなミームのモデレーションに焦点を当てた最初の作業であり、実際の運用シナリオに展開する可能性も強い、と私たちは信じています。
警告:潜在的に有毒な内容を含む。
関連論文リスト
- Towards Unified Multimodal Misinformation Detection in Social Media: A Benchmark Dataset and Baseline [56.790045049514326]
詐欺の2つの主要な形態は、人造誤報とAI生成コンテンツである。
両形態の偽造を扱うためのフレームワークであるUMFDet(Unified Multimodal Fake Content Detection)を提案する。
UMFDetは、両方の誤情報型に対して堅牢で一貫したパフォーマンスを実現し、特殊ベースラインを上回っている。
論文 参考訳(メタデータ) (2025-09-30T09:26:32Z) - MIND: A Multi-agent Framework for Zero-shot Harmful Meme Detection [3.7336554275205898]
我々は、アノテーション付きデータに依存しないゼロショット有害なミーム検出のためのマルチエージェントフレームワークであるMINDを提案する。
MINDは3つの重要な戦略を実装している。1) 文脈情報を提供するための注釈のない参照セットから類似のミームを抽出する; 2) 類似のミームを包括的に理解するための双方向の洞察メカニズムを提案する; 3) 論理的仲裁による堅牢な意思決定を保証するためにマルチエージェントの議論メカニズムを採用する。
論文 参考訳(メタデータ) (2025-07-09T14:46:32Z) - Demystifying Hateful Content: Leveraging Large Multimodal Models for Hateful Meme Detection with Explainable Decisions [4.649093665157263]
本稿では,LMM(Large Multimodal Models)を利用した新しいフレームワークであるIntMemeを紹介する。
IntMemeは、ミームのモデレーションにおける正確性と説明可能性の両方を改善するという2つの課題に対処する。
提案手法はPT-VLMにおける不透明度と誤分類の問題に対処し,LMMを用いた憎しみのあるミーム検出を最適化する。
論文 参考訳(メタデータ) (2025-02-16T10:45:40Z) - Towards Low-Resource Harmful Meme Detection with LMM Agents [13.688955830843973]
低リソース有害ミーム検出のためのエージェント駆動型フレームワークを提案する。
まず、LMMエージェントの補助信号としてラベル情報を利用するアノテーション付き相対ミームを検索する。
我々は,LMMエージェント内での知識改善行動を利用して,ミーム有害性に関するよく一般化された洞察を導出する。
論文 参考訳(メタデータ) (2024-11-08T07:43:15Z) - MemeMQA: Multimodal Question Answering for Memes via Rationale-Based Inferencing [53.30190591805432]
構造化された質問に対する正確な応答を求めるマルチモーダルな質問応答フレームワークであるMemeMQAを紹介する。
また,MemeMQAに対処する新しい2段階マルチモーダルフレームワークであるARSENALを提案する。
論文 参考訳(メタデータ) (2024-05-18T07:44:41Z) - Meme-ingful Analysis: Enhanced Understanding of Cyberbullying in Memes
Through Multimodal Explanations [48.82168723932981]
Em MultiBully-Exは、コード混在型サイバーいじめミームからマルチモーダルな説明を行うための最初のベンチマークデータセットである。
ミームの視覚的およびテキスト的説明のために,コントラスト言語-画像事前学習 (CLIP) アプローチが提案されている。
論文 参考訳(メタデータ) (2024-01-18T11:24:30Z) - Multimodal and Explainable Internet Meme Classification [3.4690152926833315]
インターネットのミーム理解のためのモジュールで説明可能なアーキテクチャを設計し実装する。
本研究では,Hate Speech Detection と Misogyny Classification の2つの既存のタスクにおいて,有害なミームを検出するためのモジュールモデルと説明可能なモデルの有効性について検討する。
ユーザフレンドリーなインターフェースを考案し、任意のミームに対してすべてのモデルから検索したサンプルの比較分析を容易にする。
論文 参考訳(メタデータ) (2022-12-11T21:52:21Z) - Detecting and Understanding Harmful Memes: A Survey [48.135415967633676]
我々は有害なミームに焦点を当てた総合的な調査を行っている。
興味深い発見の1つは、多くの有害ミームが実際には研究されていないことである。
別の観察では、ミームは異なる言語で再パッケージ化することでグローバルに伝播し、多言語化することもできる。
論文 参考訳(メタデータ) (2022-05-09T13:43:27Z) - Caption Enriched Samples for Improving Hateful Memes Detection [78.5136090997431]
憎しみのあるミームの挑戦は、ミームが憎悪であるか否かを決定するのが困難であることを示している。
ユニモーダル言語モデルとマルチモーダル視覚言語モデルの両方が人間のパフォーマンスレベルに到達できない。
論文 参考訳(メタデータ) (2021-09-22T10:57:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。