論文の概要: From Shallow Humor to Metaphor: Towards Label-Free Harmful Meme Detection via LMM Agent Self-Improvement
- arxiv url: http://arxiv.org/abs/2512.21598v1
- Date: Thu, 25 Dec 2025 09:36:35 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-29 12:00:49.443521
- Title: From Shallow Humor to Metaphor: Towards Label-Free Harmful Meme Detection via LMM Agent Self-Improvement
- Title(参考訳): 浅層感音からメタファーへ:LMMエージェント自己改善によるラベルフリーハーモフル・ミーム検出に向けて
- Authors: Jian Lang, Rongpei Hong, Ting Zhong, Leiting Chen, Qiang Gao, Fan Zhou,
- Abstract要約: オンラインメディアにおける有害ミームの拡散は、公衆衛生と安定性に重大なリスクをもたらす。
既存の検出方法は、トレーニングのために大規模なラベル付きデータに大きく依存している。
本稿では,LMM(Large Multimodal Model)エージェントによる最初のlAbeLフリーなhARmful Meme検出フレームワークであるALARMを提案する。
- 参考スコア(独自算出の注目度): 32.18826266751766
- License:
- Abstract: The proliferation of harmful memes on online media poses significant risks to public health and stability. Existing detection methods heavily rely on large-scale labeled data for training, which necessitates substantial manual annotation efforts and limits their adaptability to the continually evolving nature of harmful content. To address these challenges, we present ALARM, the first lAbeL-free hARmful Meme detection framework powered by Large Multimodal Model (LMM) agent self-improvement. The core innovation of ALARM lies in exploiting the expressive information from "shallow" memes to iteratively enhance its ability to tackle more complex and subtle ones. ALARM consists of a novel Confidence-based Explicit Meme Identification mechanism that isolates the explicit memes from the original dataset and assigns them pseudo-labels. Besides, a new Pairwise Learning Guided Agent Self-Improvement paradigm is introduced, where the explicit memes are reorganized into contrastive pairs (positive vs. negative) to refine a learner LMM agent. This agent autonomously derives high-level detection cues from these pairs, which in turn empower the agent itself to handle complex and challenging memes effectively. Experiments on three diverse datasets demonstrate the superior performance and strong adaptability of ALARM to newly evolved memes. Notably, our method even outperforms label-driven methods. These results highlight the potential of label-free frameworks as a scalable and promising solution for adapting to novel forms and topics of harmful memes in dynamic online environments.
- Abstract(参考訳): オンラインメディアにおける有害ミームの拡散は、公衆衛生と安定性に重大なリスクをもたらす。
既存の検出方法は、大規模なラベル付きデータのトレーニングに大きく依存しており、手作業による注釈作業が必要であり、有害なコンテンツの継続的な進化に適応性を制限する。
これらの課題に対処するために,我々は,LMMエージェントによる自己改善による最初のlAbeLフリーなhARmful Meme検出フレームワークであるALARMを提案する。
ALARMの中核的な革新は、より複雑で微妙なものに取り組む能力を反復的に強化するために、"浅すぎる"ミームから表現的な情報を活用することである。
ALARMは、新しいConfidenceベースのExplicit Meme識別メカニズムで構成されており、オリジナルのデータセットから明示的なミームを分離し、擬似ラベルを割り当てる。
さらに、新たなペアワイズ学習指導エージェント自己改善パラダイムを導入し、明示的なミームを対照的なペア(正対負)に再構成し、学習者のLMMエージェントを洗練させる。
このエージェントは、これらのペアから高レベルの検出キューを自律的に導き、それによってエージェント自身に、複雑で挑戦的なミームを効果的に扱う権限を与える。
3つの多様なデータセットの実験は、新しく進化したミームに対するALARMの優れたパフォーマンスと強力な適応性を示している。
特に,本手法はラベル駆動手法よりも優れている。
これらの結果は、動的オンライン環境における有害ミームの新たな形態やトピックに適応するためのスケーラブルで有望なソリューションとして、ラベルフリーフレームワークの可能性を強調している。
関連論文リスト
- Alignment Tipping Process: How Self-Evolution Pushes LLM Agents Off the Rails [103.05296856071931]
本稿では,自己進化型大規模言語モデル(LLM)エージェントに特有の,アライメント・ティッピング・プロセス(ATP)を同定する。
ATPは、連続的な相互作用によってエージェントが訓練中に確立されたアライメント制約を放棄し、強化された自己関心の戦略を支持するときに生じる。
実験の結果、アライメントの利点は自己進化の下で急速に低下し、最初は整合性のない状態に収束したモデルであることが判明した。
論文 参考訳(メタデータ) (2025-10-06T14:48:39Z) - MemeMind: A Large-Scale Multimodal Dataset with Chain-of-Thought Reasoning for Harmful Meme Detection [4.09109557328609]
有害なミームは、暗黙のセマンティクスと複雑なマルチモーダル相互作用による自動検出に重大な課題をもたらす。
MemeMindは、科学的に厳格な標準、大規模、多様性、バイリンガルサポート(中国語と英語)、詳細なChain-of-Thought(CoT)アノテーションを備えた、新しいデータセットである。
本稿では,マルチモーダル情報と推論プロセスモデリングを効果的に統合した,革新的な検出フレームワークMemeGuardを提案する。
論文 参考訳(メタデータ) (2025-06-15T13:45:30Z) - Detecting Harmful Memes with Decoupled Understanding and Guided CoT Reasoning [26.546646866501735]
有害ミーム検出のための新しいフレームワークであるU-CoT+を紹介する。
まず,視覚的ミームを詳細なテキスト記述に変換する高忠実度ミーム・トゥ・テキストパイプラインを開発する。
この設計は、ミームの解釈をミーム分類から切り離し、複雑な生の視覚的内容に対する即時推論を避ける。
論文 参考訳(メタデータ) (2025-06-10T06:10:45Z) - Information Retrieval Induced Safety Degradation in AI Agents [52.15553901577888]
本研究では,検索アクセスの拡大がモデル信頼性,バイアス伝搬,有害コンテンツ生成に与える影響について検討した。
整列 LLM 上に構築された検索可能なエージェントは、検索なしでの無検閲モデルよりも安全でない振る舞いをすることが多い。
これらの発見は、検索可能でますます自律的なAIシステムの公正性と信頼性を確保するための堅牢な緩和戦略の必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2025-05-20T11:21:40Z) - MemeIntel: Explainable Detection of Propagandistic and Hateful Memes [7.312435036698118]
本稿では,アラビア語およびヘイトフルミームにおけるプロパガンダ的ミームに対する説明強化データセットであるMemeXplainを紹介する。
マルチステージ最適化手法を提案し,VLM(Vision-Language Models)を訓練する。
以上の結果から,この手法はベースモデルよりもラベル検出と説明生成品質を著しく向上させることが示された。
論文 参考訳(メタデータ) (2025-02-23T15:35:48Z) - Demystifying Hateful Content: Leveraging Large Multimodal Models for Hateful Meme Detection with Explainable Decisions [4.649093665157263]
本稿では,LMM(Large Multimodal Models)を利用した新しいフレームワークであるIntMemeを紹介する。
IntMemeは、ミームのモデレーションにおける正確性と説明可能性の両方を改善するという2つの課題に対処する。
提案手法はPT-VLMにおける不透明度と誤分類の問題に対処し,LMMを用いた憎しみのあるミーム検出を最適化する。
論文 参考訳(メタデータ) (2025-02-16T10:45:40Z) - Towards Low-Resource Harmful Meme Detection with LMM Agents [13.688955830843973]
低リソース有害ミーム検出のためのエージェント駆動型フレームワークを提案する。
まず、LMMエージェントの補助信号としてラベル情報を利用するアノテーション付き相対ミームを検索する。
我々は,LMMエージェント内での知識改善行動を利用して,ミーム有害性に関するよく一般化された洞察を導出する。
論文 参考訳(メタデータ) (2024-11-08T07:43:15Z) - Evolver: Chain-of-Evolution Prompting to Boost Large Multimodal Models for Hateful Meme Detection [49.122777764853055]
ヘイトフルミーム検出のためのLMM(Large Multimodal Models)の可能性を探る。
提案するEvolverは,Chain-of-Evolution (CoE) Promptingを介してLMMを組み込む。
Evolverは、ステップバイステップでLMMを通してミームと理由の進化と表現のプロセスをシミュレートする。
論文 参考訳(メタデータ) (2024-07-30T17:51:44Z) - MemeMQA: Multimodal Question Answering for Memes via Rationale-Based Inferencing [53.30190591805432]
構造化された質問に対する正確な応答を求めるマルチモーダルな質問応答フレームワークであるMemeMQAを紹介する。
また,MemeMQAに対処する新しい2段階マルチモーダルフレームワークであるARSENALを提案する。
論文 参考訳(メタデータ) (2024-05-18T07:44:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。