論文の概要: FreezeVLA: Action-Freezing Attacks against Vision-Language-Action Models
- arxiv url: http://arxiv.org/abs/2509.19870v1
- Date: Wed, 24 Sep 2025 08:15:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.732465
- Title: FreezeVLA: Action-Freezing Attacks against Vision-Language-Action Models
- Title(参考訳): FreezeVLA:ビジョンランゲージ・アクションモデルに対するアクションフリーズ攻撃
- Authors: Xin Wang, Jie Li, Zejia Weng, Yixu Wang, Yifeng Gao, Tianyu Pang, Chao Du, Yan Teng, Yingchun Wang, Zuxuan Wu, Xingjun Ma, Yu-Gang Jiang,
- Abstract要約: Vision-Language-Action(VLA)モデルはロボティクスの急速な進歩を加速している。
敵画像はVLAモデルを「凍結」し、その後の命令を無視する。
FreezeVLAは、min-maxバイレベル最適化を通じて、アクション凍結攻撃を生成し、評価する。
- 参考スコア(独自算出の注目度): 124.02734355214325
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vision-Language-Action (VLA) models are driving rapid progress in robotics by enabling agents to interpret multimodal inputs and execute complex, long-horizon tasks. However, their safety and robustness against adversarial attacks remain largely underexplored. In this work, we identify and formalize a critical adversarial vulnerability in which adversarial images can "freeze" VLA models and cause them to ignore subsequent instructions. This threat effectively disconnects the robot's digital mind from its physical actions, potentially inducing inaction during critical interventions. To systematically study this vulnerability, we propose FreezeVLA, a novel attack framework that generates and evaluates action-freezing attacks via min-max bi-level optimization. Experiments on three state-of-the-art VLA models and four robotic benchmarks show that FreezeVLA attains an average attack success rate of 76.2%, significantly outperforming existing methods. Moreover, adversarial images generated by FreezeVLA exhibit strong transferability, with a single image reliably inducing paralysis across diverse language prompts. Our findings expose a critical safety risk in VLA models and highlight the urgent need for robust defense mechanisms.
- Abstract(参考訳): VLA(Vision-Language-Action)モデルは、エージェントがマルチモーダル入力を解釈し、複雑な長距離タスクを実行することを可能にすることで、ロボット工学の急速な進歩を加速している。
しかし、敵の攻撃に対する安全性と堅牢性はいまだに未発見のままである。
本研究では,VLAモデルを「凍結」し,その後の命令を無視する致命的な敵対的脆弱性を特定し,形式化する。
この脅威は、ロボットのデジタルマインドを物理的行動から効果的に切り離し、臨界介入中の不作用を引き起こす可能性がある。
この脆弱性を体系的に研究するために,min-maxバイレベル最適化による行動凍結攻撃を発生・評価する新しい攻撃フレームワークであるFreezeVLAを提案する。
最先端の3つのVLAモデルと4つのロボットベンチマークの実験により、FreezeVLAは76.2%の平均的な攻撃成功率に達し、既存の手法よりも大幅に優れていた。
さらに、FreezeVLAが生成した対向画像は強い伝達性を示し、単一の画像は多言語プロンプトの麻痺を確実に誘導する。
本研究は,VLAモデルにおいて重要な安全性リスクを明らかにし,堅牢な防御機構の必要性を強調した。
関連論文リスト
- Chain of Attack: On the Robustness of Vision-Language Models Against Transfer-Based Adversarial Attacks [34.40254709148148]
事前学習された視覚言語モデル(VLM)は、画像および自然言語理解において顕著な性能を示した。
彼らの潜在的な安全性と堅牢性の問題は、敵がシステムを回避し、悪意のある攻撃を通じて有害なコンテンツを生成することを懸念する。
本稿では,マルチモーダルなセマンティック・アップデートに基づいて,敵対的事例の生成を反復的に促進するアタック・チェーン(CoA)を提案する。
論文 参考訳(メタデータ) (2024-11-24T05:28:07Z) - Exploring the Adversarial Vulnerabilities of Vision-Language-Action Models in Robotics [68.36528819227641]
本稿では,ビジョン・ランゲージ・アクション(VLA)モデルのロバスト性を体系的に評価する。
本研究では,ロボット行動の不安定化に空間的基盤を活用する2つの未目標攻撃目標と,ロボット軌道を操作する目標攻撃目標を導入する。
我々は、カメラの視野に小さなカラフルなパッチを配置し、デジタルと物理の両方の環境で効果的に攻撃を実行する逆パッチ生成アプローチを設計する。
論文 参考訳(メタデータ) (2024-11-18T01:52:20Z) - On the Vulnerability of LLM/VLM-Controlled Robotics [54.57914943017522]
大規模言語モデル(LLM)と視覚言語モデル(VLM)を統合するロボットシステムの脆弱性を,入力モダリティの感度によって強調する。
LLM/VLM制御型2つのロボットシステムにおいて,単純な入力摂動がタスク実行の成功率を22.2%,14.6%減少させることを示す。
論文 参考訳(メタデータ) (2024-02-15T22:01:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。