論文の概要: Hidden Tail: Adversarial Image Causing Stealthy Resource Consumption in Vision-Language Models
- arxiv url: http://arxiv.org/abs/2508.18805v1
- Date: Tue, 26 Aug 2025 08:40:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.758348
- Title: Hidden Tail: Adversarial Image Causing Stealthy Resource Consumption in Vision-Language Models
- Title(参考訳): 隠れたタイル:視覚言語モデルにおける立体的資源消費を考慮した逆画像
- Authors: Rui Zhang, Zihan Wang, Tianli Yang, Hongwei Li, Wenbo Jiang, Qingchuan Zhao, Yang Liu, Guowen Xu,
- Abstract要約: VLM(Vision-Language Models)は、現実のアプリケーションにますますデプロイされているが、その高い推論コストにより、リソース消費攻撃に対する脆弱性がある。
textitHidden Tailを提案する。これは、素早い無敵画像を作成するステルスなリソース消費攻撃である。
本手法では, 意味的保存, 反復的特殊トークン誘導, 終末トークンの抑制のバランスをとる複合損失関数を用いる。
- 参考スコア(独自算出の注目度): 30.671621529825654
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Vision-Language Models (VLMs) are increasingly deployed in real-world applications, but their high inference cost makes them vulnerable to resource consumption attacks. Prior attacks attempt to extend VLM output sequences by optimizing adversarial images, thereby increasing inference costs. However, these extended outputs often introduce irrelevant abnormal content, compromising attack stealthiness. This trade-off between effectiveness and stealthiness poses a major limitation for existing attacks. To address this challenge, we propose \textit{Hidden Tail}, a stealthy resource consumption attack that crafts prompt-agnostic adversarial images, inducing VLMs to generate maximum-length outputs by appending special tokens invisible to users. Our method employs a composite loss function that balances semantic preservation, repetitive special token induction, and suppression of the end-of-sequence (EOS) token, optimized via a dynamic weighting strategy. Extensive experiments show that \textit{Hidden Tail} outperforms existing attacks, increasing output length by up to 19.2$\times$ and reaching the maximum token limit, while preserving attack stealthiness. These results highlight the urgent need to improve the robustness of VLMs against efficiency-oriented adversarial threats. Our code is available at https://github.com/zhangrui4041/Hidden_Tail.
- Abstract(参考訳): VLM(Vision-Language Models)は、現実のアプリケーションにますますデプロイされているが、その高い推論コストにより、リソース消費攻撃に対する脆弱性がある。
先行攻撃は、VLM出力シーケンスを拡張し、対向画像の最適化により推論コストを増大させる。
しかし、これらの拡張アウトプットは、しばしば無関係な異常な内容を導入し、攻撃ステルスネスを損なう。
この有効性とステルス性の間のトレードオフは、既存の攻撃に大きな制限をもたらす。
この課題に対処するために,ユーザに見えない特別なトークンを付加して最大長の出力を生成するためにVLMを誘導し,即時非依存の逆画像を生成する,ステルスなリソース消費攻撃である‘textit{Hidden Tail} を提案する。
本手法では, 動的重み付け戦略により最適化された, 意味的保存, 反復的特殊トークン誘導, EOSトークンの抑制のバランスをとる複合損失関数を用いる。
大規模な実験により、 \textit{Hidden Tail} は既存の攻撃より優れており、出力長が19.2$\times$まで増加し、攻撃のステルスネスを保ちながら最大トークン制限に達することが示されている。
これらの結果は、効率志向の敵の脅威に対するVLMの堅牢性を改善するための緊急の必要性を浮き彫りにした。
私たちのコードはhttps://github.com/zhangrui4041/Hidden_Tail.orgから入手可能です。
関連論文リスト
- An Image Is Worth Ten Thousand Words: Verbose-Text Induction Attacks on VLMs [48.05423013052023]
本稿では,良性画像に知覚不能な逆方向の摂動を注入する新しい動詞文誘導攻撃(VTIA)を提案する。
まず、敵のプロンプトを自動的に識別する強化学習戦略を用いて、敵のプロンプト検索を行う。
次に、入力画像の対角的例を作成するために、視線対応摂動最適化を行い、摂動画像の視覚的埋め込みと対角的プロンプトの類似性を最大化する。
論文 参考訳(メタデータ) (2025-11-20T09:03:43Z) - MTAttack: Multi-Target Backdoor Attacks against Large Vision-Language Models [52.37749859972453]
我々は,LVLMにおける複数のトリガターゲットマッピングを正確に行うための,最初のマルチターゲットバックドアアタックフレームワークであるMTAttackを提案する。
人気のあるベンチマークの実験では、マルチターゲット攻撃に対するMTAttackの成功率が高いことが示されている。
我々の攻撃は、データセット間での強力な一般化性と、バックドア防衛戦略に対する堅牢性を示す。
論文 参考訳(メタデータ) (2025-11-13T09:00:21Z) - One Token Embedding Is Enough to Deadlock Your Large Reasoning Model [91.48868589442837]
我々は, LRMの生成制御フローをハイジャックする資源枯渇手法であるDeadlock Attackを提案する。
提案手法は4つの先進LEMにおいて100%の攻撃成功率を達成する。
論文 参考訳(メタデータ) (2025-10-12T07:42:57Z) - SilentStriker:Toward Stealthy Bit-Flip Attacks on Large Language Models [13.200372347541142]
Bit-Flip Attacks (BFA) は、ハードウェア脆弱性を利用してモデルパラメータを破損させ、重大なパフォーマンス劣化を引き起こす。
既存のBFA手法では、性能劣化と出力の自然さのバランスが取れず、発見しがちである。
SilentStrikerは、出力の自然性を維持しながらタスク性能を効果的に低下させるLSMに対する最初のステルスなビットフリップ攻撃である。
論文 参考訳(メタデータ) (2025-09-22T05:36:18Z) - RECALLED: An Unbounded Resource Consumption Attack on Large Vision-Language Models [16.62034667623657]
大規模言語モデル(LLM)の展開に対する重大な脅威として、リソース消費攻撃(RCA)が出現している。
視覚的モーダル性を利用してRCAをリピートする最初の手法であるRECALLEDを提案する。
本研究はLVLMのセキュリティ脆弱性を明らかにし,RCAに対する今後の防衛開発を促進するためのレッドチームフレームワークを構築した。
論文 参考訳(メタデータ) (2025-07-24T02:58:16Z) - Cross-modality Information Check for Detecting Jailbreaking in Multimodal Large Language Models [17.663550432103534]
マルチモーダル大言語モデル(MLLM)は、多モーダル情報を包括的に理解するためにLLMの能力を拡張する。
これらのモデルは、悪意のあるユーザーがターゲットモデルの安全アライメントを壊し、誤解を招く、有害な回答を発生させることができるジェイルブレイク攻撃の影響を受けやすい。
本稿では,悪質な摂動画像入力を識別するプラグイン・アンド・プレイのジェイルブレイク検出装置であるCIDERを提案する。
論文 参考訳(メタデータ) (2024-07-31T15:02:46Z) - White-box Multimodal Jailbreaks Against Large Vision-Language Models [61.97578116584653]
本稿では,テキストと画像のモダリティを併用して,大規模視覚言語モデルにおけるより広範な脆弱性のスペクトルを利用する,より包括的戦略を提案する。
本手法は,テキスト入力がない場合に,逆画像プレフィックスをランダムノイズから最適化し,有害な応答を多様に生成することから始める。
様々な有害な指示に対する肯定的な反応を誘発する確率を最大化するために、対向テキスト接頭辞を、対向画像接頭辞と統合し、共最適化する。
論文 参考訳(メタデータ) (2024-05-28T07:13:30Z) - Energy-Latency Manipulation of Multi-modal Large Language Models via Verbose Samples [63.9198662100875]
本稿では,知覚不能な摂動を発生させることにより,推論中に高エネルギー遅延コストを誘導することを目的とする。
生成シーケンスの長さを最大化することにより、高エネルギーレイテンシコストを操作できることが判明した。
実験により,我々の冗長サンプルは生成シーケンスの長さを大きく拡張できることが示された。
論文 参考訳(メタデータ) (2024-04-25T12:11:38Z) - VL-Trojan: Multimodal Instruction Backdoor Attacks against
Autoregressive Visual Language Models [65.23688155159398]
VLM(Autoregressive Visual Language Models)は、マルチモーダルなコンテキストにおいて、驚くべき数ショットの学習機能を示す。
近年,マルチモーダル・インストラクション・チューニングが提案されている。
敵は、指示や画像に埋め込まれたトリガーで有毒なサンプルを注入することで、バックドアを埋め込むことができる。
本稿では,マルチモーダルなバックドア攻撃,すなわちVL-Trojanを提案する。
論文 参考訳(メタデータ) (2024-02-21T14:54:30Z) - Inducing High Energy-Latency of Large Vision-Language Models with Verbose Images [63.91986621008751]
大規模視覚言語モデル(VLM)は、様々なマルチモーダルタスクにおいて例外的な性能を達成している。
本稿では,VLMの推論中に高エネルギー遅延コストを誘導することを目的とする。
本稿では,長い文を生成するためにVLMを誘導するために,知覚不能な摂動を作り出すことを目的とした冗長な画像を提案する。
論文 参考訳(メタデータ) (2024-01-20T08:46:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。