論文の概要: Hidden Tail: Adversarial Image Causing Stealthy Resource Consumption in Vision-Language Models
- arxiv url: http://arxiv.org/abs/2508.18805v1
- Date: Tue, 26 Aug 2025 08:40:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.758348
- Title: Hidden Tail: Adversarial Image Causing Stealthy Resource Consumption in Vision-Language Models
- Title(参考訳): 隠れたタイル:視覚言語モデルにおける立体的資源消費を考慮した逆画像
- Authors: Rui Zhang, Zihan Wang, Tianli Yang, Hongwei Li, Wenbo Jiang, Qingchuan Zhao, Yang Liu, Guowen Xu,
- Abstract要約: VLM(Vision-Language Models)は、現実のアプリケーションにますますデプロイされているが、その高い推論コストにより、リソース消費攻撃に対する脆弱性がある。
textitHidden Tailを提案する。これは、素早い無敵画像を作成するステルスなリソース消費攻撃である。
本手法では, 意味的保存, 反復的特殊トークン誘導, 終末トークンの抑制のバランスをとる複合損失関数を用いる。
- 参考スコア(独自算出の注目度): 30.671621529825654
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Vision-Language Models (VLMs) are increasingly deployed in real-world applications, but their high inference cost makes them vulnerable to resource consumption attacks. Prior attacks attempt to extend VLM output sequences by optimizing adversarial images, thereby increasing inference costs. However, these extended outputs often introduce irrelevant abnormal content, compromising attack stealthiness. This trade-off between effectiveness and stealthiness poses a major limitation for existing attacks. To address this challenge, we propose \textit{Hidden Tail}, a stealthy resource consumption attack that crafts prompt-agnostic adversarial images, inducing VLMs to generate maximum-length outputs by appending special tokens invisible to users. Our method employs a composite loss function that balances semantic preservation, repetitive special token induction, and suppression of the end-of-sequence (EOS) token, optimized via a dynamic weighting strategy. Extensive experiments show that \textit{Hidden Tail} outperforms existing attacks, increasing output length by up to 19.2$\times$ and reaching the maximum token limit, while preserving attack stealthiness. These results highlight the urgent need to improve the robustness of VLMs against efficiency-oriented adversarial threats. Our code is available at https://github.com/zhangrui4041/Hidden_Tail.
- Abstract(参考訳): VLM(Vision-Language Models)は、現実のアプリケーションにますますデプロイされているが、その高い推論コストにより、リソース消費攻撃に対する脆弱性がある。
先行攻撃は、VLM出力シーケンスを拡張し、対向画像の最適化により推論コストを増大させる。
しかし、これらの拡張アウトプットは、しばしば無関係な異常な内容を導入し、攻撃ステルスネスを損なう。
この有効性とステルス性の間のトレードオフは、既存の攻撃に大きな制限をもたらす。
この課題に対処するために,ユーザに見えない特別なトークンを付加して最大長の出力を生成するためにVLMを誘導し,即時非依存の逆画像を生成する,ステルスなリソース消費攻撃である‘textit{Hidden Tail} を提案する。
本手法では, 動的重み付け戦略により最適化された, 意味的保存, 反復的特殊トークン誘導, EOSトークンの抑制のバランスをとる複合損失関数を用いる。
大規模な実験により、 \textit{Hidden Tail} は既存の攻撃より優れており、出力長が19.2$\times$まで増加し、攻撃のステルスネスを保ちながら最大トークン制限に達することが示されている。
これらの結果は、効率志向の敵の脅威に対するVLMの堅牢性を改善するための緊急の必要性を浮き彫りにした。
私たちのコードはhttps://github.com/zhangrui4041/Hidden_Tail.orgから入手可能です。
関連論文リスト
- RECALLED: An Unbounded Resource Consumption Attack on Large Vision-Language Models [16.62034667623657]
大規模言語モデル(LLM)の展開に対する重大な脅威として、リソース消費攻撃(RCA)が出現している。
視覚的モーダル性を利用してRCAをリピートする最初の手法であるRECALLEDを提案する。
本研究はLVLMのセキュリティ脆弱性を明らかにし,RCAに対する今後の防衛開発を促進するためのレッドチームフレームワークを構築した。
論文 参考訳(メタデータ) (2025-07-24T02:58:16Z) - Cross-modality Information Check for Detecting Jailbreaking in Multimodal Large Language Models [17.663550432103534]
マルチモーダル大言語モデル(MLLM)は、多モーダル情報を包括的に理解するためにLLMの能力を拡張する。
これらのモデルは、悪意のあるユーザーがターゲットモデルの安全アライメントを壊し、誤解を招く、有害な回答を発生させることができるジェイルブレイク攻撃の影響を受けやすい。
本稿では,悪質な摂動画像入力を識別するプラグイン・アンド・プレイのジェイルブレイク検出装置であるCIDERを提案する。
論文 参考訳(メタデータ) (2024-07-31T15:02:46Z) - White-box Multimodal Jailbreaks Against Large Vision-Language Models [61.97578116584653]
本稿では,テキストと画像のモダリティを併用して,大規模視覚言語モデルにおけるより広範な脆弱性のスペクトルを利用する,より包括的戦略を提案する。
本手法は,テキスト入力がない場合に,逆画像プレフィックスをランダムノイズから最適化し,有害な応答を多様に生成することから始める。
様々な有害な指示に対する肯定的な反応を誘発する確率を最大化するために、対向テキスト接頭辞を、対向画像接頭辞と統合し、共最適化する。
論文 参考訳(メタデータ) (2024-05-28T07:13:30Z) - Energy-Latency Manipulation of Multi-modal Large Language Models via Verbose Samples [63.9198662100875]
本稿では,知覚不能な摂動を発生させることにより,推論中に高エネルギー遅延コストを誘導することを目的とする。
生成シーケンスの長さを最大化することにより、高エネルギーレイテンシコストを操作できることが判明した。
実験により,我々の冗長サンプルは生成シーケンスの長さを大きく拡張できることが示された。
論文 参考訳(メタデータ) (2024-04-25T12:11:38Z) - VL-Trojan: Multimodal Instruction Backdoor Attacks against
Autoregressive Visual Language Models [65.23688155159398]
VLM(Autoregressive Visual Language Models)は、マルチモーダルなコンテキストにおいて、驚くべき数ショットの学習機能を示す。
近年,マルチモーダル・インストラクション・チューニングが提案されている。
敵は、指示や画像に埋め込まれたトリガーで有毒なサンプルを注入することで、バックドアを埋め込むことができる。
本稿では,マルチモーダルなバックドア攻撃,すなわちVL-Trojanを提案する。
論文 参考訳(メタデータ) (2024-02-21T14:54:30Z) - Inducing High Energy-Latency of Large Vision-Language Models with Verbose Images [63.91986621008751]
大規模視覚言語モデル(VLM)は、様々なマルチモーダルタスクにおいて例外的な性能を達成している。
本稿では,VLMの推論中に高エネルギー遅延コストを誘導することを目的とする。
本稿では,長い文を生成するためにVLMを誘導するために,知覚不能な摂動を作り出すことを目的とした冗長な画像を提案する。
論文 参考訳(メタデータ) (2024-01-20T08:46:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。