論文の概要: Hidden in the Metadata: Stealth Poisoning Attacks on Multimodal Retrieval-Augmented Generation
- arxiv url: http://arxiv.org/abs/2603.00172v1
- Date: Thu, 26 Feb 2026 15:59:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.080164
- Title: Hidden in the Metadata: Stealth Poisoning Attacks on Multimodal Retrieval-Augmented Generation
- Title(参考訳): メタデータに隠された:マルチモーダル検索強化ジェネレーションに対するステルス中毒
- Authors: Kennedy Edemacu, Mohammad Mahdi Shokri,
- Abstract要約: 本稿では,画像テキストエントリのメタデータコンポーネントをターゲットとしたマルチモーダル中毒攻撃であるMM-MEPAについて述べる。
MM-MEPAは、最大91%の攻撃成功率で、4つのレトリバーと2つのマルチモーダルジェネレータのシステム動作を継続的に破壊する。
- 参考スコア(独自算出の注目度): 0.8103046443444949
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Retrieval-augmented generation (RAG) has emerged as a powerful paradigm for enhancing multimodal large language models by grounding their responses in external, factual knowledge and thus mitigating hallucinations. However, the integration of externally sourced knowledge bases introduces a critical attack surface. Adversaries can inject malicious multimodal content capable of influencing both retrieval and downstream generation. In this work, we present MM-MEPA, a multimodal poisoning attack that targets the metadata components of image-text entries while leaving the associated visual content unaltered. By only manipulating the metadata, MM-MEPA can still steer multimodal retrieval and induce attacker-desired model responses. We evaluate the attack across multiple benchmark settings and demonstrate its severity. MM-MEPA achieves an attack success rate of up to 91\% consistently disrupting system behaviors across four retrievers and two multimodal generators. Additionally, we assess representative defense strategies and find them largely ineffective against this form of metadata-only poisoning. Our findings expose a critical vulnerability in multimodal RAG and underscore the urgent need for more robust, defense-aware retrieval and knowledge integration methods.
- Abstract(参考訳): Retrieval-augmented Generation (RAG) は、外的、事実的知識に応答し、幻覚を緩和することにより、マルチモーダルな大規模言語モデルを強化するための強力なパラダイムとして登場した。
しかし、外部ソースの知識ベースの統合は、重要な攻撃面をもたらす。
敵は、検索と下流の両方に影響を及ぼす悪質なマルチモーダルコンテンツを注入することができる。
本研究では,画像テキストエントリのメタデータをターゲットとしたマルチモーダル中毒攻撃であるMM-MEPAを提案する。
メタデータを操作するだけで、MM-MEPAはマルチモーダル検索を操り、攻撃者が望んだモデル応答を誘導することができる。
複数のベンチマーク設定で攻撃を評価し、その重大さを実証する。
MM-MEPAは4つのレトリバーと2つのマルチモーダルジェネレータのシステム動作を継続的に破壊する攻撃成功率を最大91\%に達する。
さらに, 代表的な防衛戦略の評価を行い, メタデータのみの中毒に対して, ほとんど効果がないことを見出した。
本研究はマルチモーダルRAGの重大な脆弱性を明らかにし,より堅牢で防御に配慮した検索・知識統合手法の必要性を浮き彫りにした。
関連論文リスト
- HV-Attack: Hierarchical Visual Attack for Multimodal Retrieval Augmented Generation [30.52562642784609]
大規模マルチモーダルモデル(LMM)の能力を高めるために,MRAG(Multimodal Retrieval-Augmented Generation)技術が広く応用されている。
既存の敵の研究では、MRAGシステムの脆弱性が毒殺攻撃を知ろうとしていることが明らかになっている。
本稿では,ユーザの画像入力に知覚不能な摂動を加えることでMRAGの視覚的攻撃を提案する。
論文 参考訳(メタデータ) (2025-11-19T13:45:24Z) - MrM: Black-Box Membership Inference Attacks against Multimodal RAG Systems [31.53306157650065]
マルチモーダル検索拡張生成(RAG)システムは、クロスモーダル知識を統合することで、大きな視覚言語モデルを強化する。
これらの知識データベースには、プライバシー保護を必要とする機密情報が含まれている可能性がある。
MrMはマルチモーダルRAGシステムを対象とした最初のブラックボックスMIAフレームワークである。
論文 参考訳(メタデータ) (2025-06-09T03:48:50Z) - MIRAGE: Multimodal Immersive Reasoning and Guided Exploration for Red-Team Jailbreak Attacks [85.3303135160762]
MIRAGEは、物語駆動型コンテキストとロール没入を利用して、マルチモーダル大規模言語モデルにおける安全性メカニズムを回避する新しいフレームワークである。
最先端のパフォーマンスを達成し、最高のベースラインよりも攻撃成功率を最大17.5%向上させる。
役割の浸漬と構造的セマンティック再構築は、モデル固有のバイアスを活性化し、モデルが倫理的保護に自発的に違反することを実証する。
論文 参考訳(メタデータ) (2025-03-24T20:38:42Z) - Poisoned-MRAG: Knowledge Poisoning Attacks to Multimodal Retrieval Augmented Generation [71.32665836294103]
マルチモーダル検索強化世代(RAG)は視覚言語モデル(VLM)の視覚的推論能力を向上させる
本研究では,マルチモーダルRAGシステムに対する最初の知識中毒攻撃であるtextitPoisoned-MRAGを紹介する。
論文 参考訳(メタデータ) (2025-03-08T15:46:38Z) - MM-PoisonRAG: Disrupting Multimodal RAG with Local and Global Poisoning Attacks [104.50239783909063]
Retrieval Augmented Generation (RAG) を用いた多モーダル大規模言語モデルは、多モーダル質問応答のようなかなり高度なタスクを持つ。
この外部知識への依存は、知識中毒攻撃(英語版)という、危険だが未発見の安全リスクを引き起こす。
マルチモーダルRAGにおける知識中毒を体系的に設計する最初のフレームワークであるMM-PoisonRAGを提案する。
論文 参考訳(メタデータ) (2025-02-25T04:23:59Z) - Retrievals Can Be Detrimental: A Contrastive Backdoor Attack Paradigm on Retrieval-Augmented Diffusion Models [37.66349948811172]
拡散モデル (DM) は近年, 顕著な生成能力を示した。
近年の研究では、高度な検索・拡張生成(RAG)技術によってDMが強化されている。
RAGは、モデルパラメータを著しく低減しつつ、DMの生成と一般化能力を向上させる。
大きな成功にもかかわらず、RAGはさらなる調査を保証できる新しいセキュリティ問題を導入するかもしれない。
論文 参考訳(メタデータ) (2025-01-23T02:42:28Z) - Towards Probing Speech-Specific Risks in Large Multimodal Models: A Taxonomy, Benchmark, and Insights [50.89022445197919]
本研究は,8つのリスクカテゴリーを敵意(悪意的皮肉と脅し),悪意的模倣(年齢,性別,民族),ステレオタイプ的バイアス(年齢,性別,民族)を対象とする音声特異的リスク分類法を提案する。
分類に基づいて,これらのリスクのカテゴリを検出するために,現在のLMM能力を評価するための小規模データセットを作成する。
論文 参考訳(メタデータ) (2024-06-25T10:08:45Z) - Dissecting Adversarial Robustness of Multimodal LM Agents [70.2077308846307]
我々は、VisualWebArena上に現実的な脅威モデルを用いて、200の敵タスクと評価スクリプトを手動で作成する。
我々は,クロボックスフロンティアLMを用いた最新のエージェントを,リフレクションやツリーサーチを行うエージェントを含む,壊すことに成功している。
AREを使用して、新しいコンポーネントの追加に伴うロバスト性の変化を厳格に評価しています。
論文 参考訳(メタデータ) (2024-06-18T17:32:48Z) - White-box Multimodal Jailbreaks Against Large Vision-Language Models [61.97578116584653]
本稿では,テキストと画像のモダリティを併用して,大規模視覚言語モデルにおけるより広範な脆弱性のスペクトルを利用する,より包括的戦略を提案する。
本手法は,テキスト入力がない場合に,逆画像プレフィックスをランダムノイズから最適化し,有害な応答を多様に生成することから始める。
様々な有害な指示に対する肯定的な反応を誘発する確率を最大化するために、対向テキスト接頭辞を、対向画像接頭辞と統合し、共最適化する。
論文 参考訳(メタデータ) (2024-05-28T07:13:30Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。