論文の概要: FreezeVLA: Action-Freezing Attacks against Vision-Language-Action Models
- arxiv url: http://arxiv.org/abs/2509.19870v1
- Date: Wed, 24 Sep 2025 08:15:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.732465
- Title: FreezeVLA: Action-Freezing Attacks against Vision-Language-Action Models
- Title(参考訳): FreezeVLA:ビジョンランゲージ・アクションモデルに対するアクションフリーズ攻撃
- Authors: Xin Wang, Jie Li, Zejia Weng, Yixu Wang, Yifeng Gao, Tianyu Pang, Chao Du, Yan Teng, Yingchun Wang, Zuxuan Wu, Xingjun Ma, Yu-Gang Jiang,
- Abstract要約: Vision-Language-Action(VLA)モデルはロボティクスの急速な進歩を加速している。
敵画像はVLAモデルを「凍結」し、その後の命令を無視する。
FreezeVLAは、min-maxバイレベル最適化を通じて、アクション凍結攻撃を生成し、評価する。
- 参考スコア(独自算出の注目度): 124.02734355214325
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vision-Language-Action (VLA) models are driving rapid progress in robotics by enabling agents to interpret multimodal inputs and execute complex, long-horizon tasks. However, their safety and robustness against adversarial attacks remain largely underexplored. In this work, we identify and formalize a critical adversarial vulnerability in which adversarial images can "freeze" VLA models and cause them to ignore subsequent instructions. This threat effectively disconnects the robot's digital mind from its physical actions, potentially inducing inaction during critical interventions. To systematically study this vulnerability, we propose FreezeVLA, a novel attack framework that generates and evaluates action-freezing attacks via min-max bi-level optimization. Experiments on three state-of-the-art VLA models and four robotic benchmarks show that FreezeVLA attains an average attack success rate of 76.2%, significantly outperforming existing methods. Moreover, adversarial images generated by FreezeVLA exhibit strong transferability, with a single image reliably inducing paralysis across diverse language prompts. Our findings expose a critical safety risk in VLA models and highlight the urgent need for robust defense mechanisms.
- Abstract(参考訳): VLA(Vision-Language-Action)モデルは、エージェントがマルチモーダル入力を解釈し、複雑な長距離タスクを実行することを可能にすることで、ロボット工学の急速な進歩を加速している。
しかし、敵の攻撃に対する安全性と堅牢性はいまだに未発見のままである。
本研究では,VLAモデルを「凍結」し,その後の命令を無視する致命的な敵対的脆弱性を特定し,形式化する。
この脅威は、ロボットのデジタルマインドを物理的行動から効果的に切り離し、臨界介入中の不作用を引き起こす可能性がある。
この脆弱性を体系的に研究するために,min-maxバイレベル最適化による行動凍結攻撃を発生・評価する新しい攻撃フレームワークであるFreezeVLAを提案する。
最先端の3つのVLAモデルと4つのロボットベンチマークの実験により、FreezeVLAは76.2%の平均的な攻撃成功率に達し、既存の手法よりも大幅に優れていた。
さらに、FreezeVLAが生成した対向画像は強い伝達性を示し、単一の画像は多言語プロンプトの麻痺を確実に誘導する。
本研究は,VLAモデルにおいて重要な安全性リスクを明らかにし,堅牢な防御機構の必要性を強調した。
関連論文リスト
- SilentDrift: Exploiting Action Chunking for Stealthy Backdoor Attacks on Vision-Language-Action Models [43.17292256124026]
VLA(Vision-Language-Action)モデルは、安全クリティカルなロボットアプリケーションにますます採用されている。
現代のVLAシステムにおける基本的なセキュリティ欠陥を識別する。
我々は、この脆弱性を利用したステルスなブラックボックスバックドア攻撃であるSILENTDRIFTを提案する。
論文 参考訳(メタデータ) (2026-01-20T01:24:17Z) - State Backdoor: Towards Stealthy Real-world Poisoning Attack on Vision-Language-Action Model in State Space [42.234025453061875]
VLA(Vision-Language-Action)モデルは、ロボット工学などの安全クリティカルな実施AIアプリケーションに広く採用されている。
我々は,ロボットアームの初期状態をトリガーとして活用する,新規で実用的なバックドア攻撃であるState Backdoorを紹介した。
提案手法は,攻撃成功率の90%以上を良質なタスク性能に影響を与えることなく達成し,組込みAIシステムにおける未探索の脆弱性を明らかにする。
論文 参考訳(メタデータ) (2026-01-07T08:54:31Z) - AttackVLA: Benchmarking Adversarial and Backdoor Attacks on Vision-Language-Action Models [60.39655329875822]
VLA(Vision-Language-Action)モデルは、ロボットが自然言語の命令を解釈し、多様なタスクを実行することを可能にするモデルである。
このようなモデルを攻撃することへの関心は高まっているが、既存の手法の有効性は依然として不明である。
我々はVLA開発ライフサイクルに合わせて統合されたフレームワークであるAttackVLAを提案する。
論文 参考訳(メタデータ) (2025-11-15T10:30:46Z) - dVLA: Diffusion Vision-Language-Action Model with Multimodal Chain-of-Thought [66.78110237549087]
VLA(Vision-Language-Action)モデルは、ロボット工学の次世代パラダイムとして登場しつつある。
単一システムにおける視覚認識,言語推論,ロボット制御を統一する拡散型VLAであるdVLAを紹介する。
論文 参考訳(メタデータ) (2025-09-30T02:36:11Z) - ANNIE: Be Careful of Your Robots [48.89876809734855]
エンボディドAIシステムに対する敵の安全攻撃に関する最初の体系的研究について述べる。
すべての安全カテゴリーで攻撃の成功率は50%を超えている。
結果は、実証済みのAIシステムにおいて、これまで未調査だったが、非常に連続的な攻撃面を露呈する。
論文 参考訳(メタデータ) (2025-09-03T15:00:28Z) - Seeing the Threat: Vulnerabilities in Vision-Language Models to Adversarial Attack [7.988475248750045]
LVLM(Large Vision-Language Models)は、様々なマルチモーダルタスクにおいて顕著な機能を示す。
従来の敵攻撃がLVLMに埋め込まれた安全機構を回避できる理由を明らかにするために,系統的な表現解析を行う。
LVLMに対する敵攻撃のための2段階評価フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-28T04:43:39Z) - MIRAGE: Multimodal Immersive Reasoning and Guided Exploration for Red-Team Jailbreak Attacks [85.3303135160762]
MIRAGEは、物語駆動型コンテキストとロール没入を利用して、マルチモーダル大規模言語モデルにおける安全性メカニズムを回避する新しいフレームワークである。
最先端のパフォーマンスを達成し、最高のベースラインよりも攻撃成功率を最大17.5%向上させる。
役割の浸漬と構造的セマンティック再構築は、モデル固有のバイアスを活性化し、モデルが倫理的保護に自発的に違反することを実証する。
論文 参考訳(メタデータ) (2025-03-24T20:38:42Z) - Chain of Attack: On the Robustness of Vision-Language Models Against Transfer-Based Adversarial Attacks [34.40254709148148]
事前学習された視覚言語モデル(VLM)は、画像および自然言語理解において顕著な性能を示した。
彼らの潜在的な安全性と堅牢性の問題は、敵がシステムを回避し、悪意のある攻撃を通じて有害なコンテンツを生成することを懸念する。
本稿では,マルチモーダルなセマンティック・アップデートに基づいて,敵対的事例の生成を反復的に促進するアタック・チェーン(CoA)を提案する。
論文 参考訳(メタデータ) (2024-11-24T05:28:07Z) - Exploring the Adversarial Vulnerabilities of Vision-Language-Action Models in Robotics [68.36528819227641]
本稿では,ビジョン・ランゲージ・アクション(VLA)モデルのロバスト性を体系的に評価する。
本研究では,ロボット行動の不安定化に空間的基盤を活用する2つの未目標攻撃目標と,ロボット軌道を操作する目標攻撃目標を導入する。
我々は、カメラの視野に小さなカラフルなパッチを配置し、デジタルと物理の両方の環境で効果的に攻撃を実行する逆パッチ生成アプローチを設計する。
論文 参考訳(メタデータ) (2024-11-18T01:52:20Z) - On the Vulnerability of LLM/VLM-Controlled Robotics [54.57914943017522]
大規模言語モデル(LLM)と視覚言語モデル(VLM)を統合するロボットシステムの脆弱性を,入力モダリティの感度によって強調する。
LLM/VLM制御型2つのロボットシステムにおいて,単純な入力摂動がタスク実行の成功率を22.2%,14.6%減少させることを示す。
論文 参考訳(メタデータ) (2024-02-15T22:01:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。