論文の概要: Invisible Injections: Exploiting Vision-Language Models Through Steganographic Prompt Embedding
- arxiv url: http://arxiv.org/abs/2507.22304v1
- Date: Wed, 30 Jul 2025 00:34:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-31 16:14:17.906851
- Title: Invisible Injections: Exploiting Vision-Language Models Through Steganographic Prompt Embedding
- Title(参考訳): Invisible Injections:Steganography Prompt Embeddingによる視覚言語モデルの作成
- Authors: Chetan Pathade,
- Abstract要約: ビジョン言語モデル(VLM)は、マルチモーダルAIアプリケーションに革命をもたらしたが、ほとんど探索されていない新しいセキュリティ脆弱性を導入した。
VLMに対するステガノグラフィー・プロンプト・インジェクション・アタックの最初の包括的研究について述べる。
提案手法は,現在のVLMアーキテクチャが通常の画像処理中に不注意に隠されたプロンプトを抽出し,実行可能であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Vision-language models (VLMs) have revolutionized multimodal AI applications but introduce novel security vulnerabilities that remain largely unexplored. We present the first comprehensive study of steganographic prompt injection attacks against VLMs, where malicious instructions are invisibly embedded within images using advanced steganographic techniques. Our approach demonstrates that current VLM architectures can inadvertently extract and execute hidden prompts during normal image processing, leading to covert behavioral manipulation. We develop a multi-domain embedding framework combining spatial, frequency, and neural steganographic methods, achieving an overall attack success rate of 24.3% (plus or minus 3.2%, 95% CI) across leading VLMs including GPT-4V, Claude, and LLaVA, with neural steganography methods reaching up to 31.8%, while maintaining reasonable visual imperceptibility (PSNR greater than 38 dB, SSIM greater than 0.94). Through systematic evaluation on 12 diverse datasets and 8 state-of-the-art models, we reveal moderate but meaningful vulnerabilities in current VLM architectures and propose effective countermeasures. Our findings have significant implications for VLM deployment in security-critical applications and highlight the need for proportionate multimodal AI security frameworks.
- Abstract(参考訳): ヴィジュアル言語モデル(VLM)は、マルチモーダルAIアプリケーションに革命をもたらしたが、ほとんど探索されていない新しいセキュリティ脆弱性を導入した。
本稿では,VLMに対するステガノグラフィー・インジェクション・アタックの最初の包括的研究について紹介する。
提案手法は,現在のVLMアーキテクチャが通常の画像処理中に不注意に隠されたプロンプトを抽出し,実行可能であることを示す。
GPT-4V, Claude, LLaVAを含む先進VLMの攻撃成功率24.3%(プラス3.2%, 95%CI)を達成し, 適切な視認性(PSNRが38dB以上, SSIMが0.94以上)を維持しつつ, 最大31.8%に達するマルチドメイン埋め込みフレームワークを開発した。
12の多様なデータセットと8つの最先端モデルの体系的評価を通じて、現在のVLMアーキテクチャにおける中等度だが有意義な脆弱性を明らかにし、効果的な対策を提案する。
我々の発見は、セキュリティクリティカルなアプリケーションにおけるVLMのデプロイメントに大きな影響を与え、マルチモーダルAIセキュリティフレームワークの比例の必要性を強調している。
関連論文リスト
- Search is All You Need for Few-shot Anomaly Detection [39.737510049667556]
産業検査において, FSAD (Few-shot Anomaly Detection) が重要な課題となっている。
本稿では,最も近い検索フレームワークが,単一クラスとマルチクラスの両方のFSADシナリオにおいて,最先端の性能を上回ることができることを示す。
画像レベルのAUROCスコアは97.4%,94.8%,70.8%であった。
論文 参考訳(メタデータ) (2025-04-16T09:21:34Z) - Internal Activation Revision: Safeguarding Vision Language Models Without Parameter Update [8.739132798784777]
視覚言語モデル(VLM)は、強いマルチモーダル能力を示すが、有害なコンテンツを生成する可能性が高い。
本稿では,世代ごとのアクティベーションを効率的に修正するテクスブファイナル・アクティベーション・リビジョン・アプローチを提案する。
我々のフレームワークはレイヤーレベルとヘッドレベルの両方のリビジョンを組み込んでおり、モデルの生成を様々なレベルの粒度で制御する。
論文 参考訳(メタデータ) (2025-01-24T06:17:22Z) - Exploring Visual Vulnerabilities via Multi-Loss Adversarial Search for Jailbreaking Vision-Language Models [92.79804303337522]
VLM(Vision-Language Models)は、安全アライメントの問題に対して脆弱である。
本稿では、シナリオ認識画像生成を利用したセマンティックアライメントのための新しいジェイルブレイクフレームワークであるMLAIを紹介する。
大規模な実験はMLAIの重大な影響を示し、MiniGPT-4で77.75%、LLaVA-2で82.80%の攻撃成功率を達成した。
論文 参考訳(メタデータ) (2024-11-27T02:40:29Z) - Effective and Efficient Adversarial Detection for Vision-Language Models via A Single Vector [97.92369017531038]
Diverse hArmful Responses (RADAR) を用いた新しい laRge-scale Adervsarial 画像データセットを構築した。
そこで我々は,視覚言語モデル (VLM) の隠れ状態から抽出した1つのベクトルを利用して,入力中の良質な画像に対して対向画像を検出する,新しいiN時間埋め込み型AdveRSarial Image Detectction (NEARSIDE) 法を開発した。
論文 参考訳(メタデータ) (2024-10-30T10:33:10Z) - A Survey of Attacks on Large Vision-Language Models: Resources, Advances, and Future Trends [78.3201480023907]
LVLM(Large Vision-Language Models)は、多モーダルな理解と推論タスクにまたがる顕著な能力を示す。
LVLMの脆弱性は比較的過小評価されており、日々の使用において潜在的なセキュリティリスクを生じさせる。
本稿では,既存のLVLM攻撃の様々な形態について概説する。
論文 参考訳(メタデータ) (2024-07-10T06:57:58Z) - MirrorCheck: Efficient Adversarial Defense for Vision-Language Models [55.73581212134293]
本稿では,視覚言語モデルにおける対角的サンプル検出のための,新しい,しかしエレガントなアプローチを提案する。
本手法は,テキスト・トゥ・イメージ(T2I)モデルを用いて,ターゲットVLMが生成したキャプションに基づいて画像を生成する。
異なるデータセットで実施した経験的評価により,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-06-13T15:55:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。