論文の概要: Phantom Menace: Exploring and Enhancing the Robustness of VLA Models against Physical Sensor Attacks
- arxiv url: http://arxiv.org/abs/2511.10008v1
- Date: Fri, 14 Nov 2025 01:25:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.635919
- Title: Phantom Menace: Exploring and Enhancing the Robustness of VLA Models against Physical Sensor Attacks
- Title(参考訳): Phantom Menace:VLAモデルの物理的センサー攻撃に対するロバスト性を探究し、改善する
- Authors: Xuancun Lu, Jiaxiang Chen, Shilin Xiao, Zizhi Jin, Zhangrui Chen, Hanwen Yu, Bohan Qian, Ruochen Zhou, Xiaoyu Ji, Wenyuan Xu,
- Abstract要約: VLA(Vision-Language-Action)モデルは、エンドツーエンドの知覚対アクションパイプラインを可能にすることで、ロボットシステムに革命をもたらす。
これらのパイプラインは、カメラによって処理された視覚信号やマイクによってキャプチャされた聴覚信号など、複数の感覚的モダリティを統合している。
VLAベースのシステムがセンサー入力に大きく依存していることを考えると、物理世界のセンサー攻撃に対するVLAモデルのセキュリティはいまだに過小評価されている。
- 参考スコア(独自算出の注目度): 17.07905934998345
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Vision-Language-Action (VLA) models revolutionize robotic systems by enabling end-to-end perception-to-action pipelines that integrate multiple sensory modalities, such as visual signals processed by cameras and auditory signals captured by microphones. This multi-modality integration allows VLA models to interpret complex, real-world environments using diverse sensor data streams. Given the fact that VLA-based systems heavily rely on the sensory input, the security of VLA models against physical-world sensor attacks remains critically underexplored. To address this gap, we present the first systematic study of physical sensor attacks against VLAs, quantifying the influence of sensor attacks and investigating the defenses for VLA models. We introduce a novel ``Real-Sim-Real'' framework that automatically simulates physics-based sensor attack vectors, including six attacks targeting cameras and two targeting microphones, and validates them on real robotic systems. Through large-scale evaluations across various VLA architectures and tasks under varying attack parameters, we demonstrate significant vulnerabilities, with susceptibility patterns that reveal critical dependencies on task types and model designs. We further develop an adversarial-training-based defense that enhances VLA robustness against out-of-distribution physical perturbations caused by sensor attacks while preserving model performance. Our findings expose an urgent need for standardized robustness benchmarks and mitigation strategies to secure VLA deployments in safety-critical environments.
- Abstract(参考訳): VLA(Vision-Language-Action)モデルは、カメラによって処理された視覚信号やマイクによってキャプチャされた聴覚信号など、複数の感覚的モダリティを統合するエンドツーエンドの知覚対アクションパイプラインを可能にすることで、ロボットシステムに革命をもたらす。
このマルチモダリティ統合により、VLAモデルは多様なセンサデータストリームを使用して、複雑な現実世界環境を解釈することができる。
VLAベースのシステムがセンサー入力に大きく依存していることを考えると、物理世界のセンサー攻撃に対するVLAモデルのセキュリティはいまだに過小評価されている。
このギャップに対処するために、VLAに対する物理的なセンサー攻撃の体系的研究を行い、センサ攻撃の影響を定量化し、VLAモデルに対する防御を検証した。
本稿では,6台のカメラと2台のマイクロホンを標的とした攻撃を含む物理ベースのセンサ攻撃ベクトルを自動的にシミュレートし,それらを実際のロボットシステム上で検証する,新しい‘Real-Sim-Real’フレームワークを提案する。
さまざまなVLAアーキテクチャや,さまざまな攻撃パラメータの下でのタスクに対する大規模な評価を通じて,タスクタイプやモデル設計に重要な依存関係を示す感受性パターンを用いて,重大な脆弱性を示す。
さらに, モデル性能を維持しつつ, センサアタックによる物理的摂動に対するVLA堅牢性を向上する対向学習型防御法を開発した。
本研究は,安全クリティカル環境におけるVLAの安全性確保のための,標準化されたロバストネスベンチマークと緩和戦略の緊急的ニーズを明らかにした。
関連論文リスト
- Model-agnostic Adversarial Attack and Defense for Vision-Language-Action Models [25.45513133247862]
VLA(Vision-Language-Action)モデルは、ロボット学習において革命的な進歩を遂げている。
この進歩にもかかわらず、その敵意の強固さは未解明のままである。
本稿では,VLAモデルに対する敵パッチ攻撃と対応する防御戦略の両方を提案する。
論文 参考訳(メタデータ) (2025-10-15T07:42:44Z) - Universal Camouflage Attack on Vision-Language Models for Autonomous Driving [67.34987318443761]
自動運転のためのビジュアル言語モデリングが、有望な研究方向として浮上している。
VLM-ADは、敵の攻撃による深刻なセキュリティ脅威に弱いままである。
VLM-ADのための最初のユニバーサルカモフラージュ攻撃フレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-24T14:52:01Z) - FreezeVLA: Action-Freezing Attacks against Vision-Language-Action Models [124.02734355214325]
Vision-Language-Action(VLA)モデルはロボティクスの急速な進歩を加速している。
敵画像はVLAモデルを「凍結」し、その後の命令を無視する。
FreezeVLAは、min-maxバイレベル最適化を通じて、アクション凍結攻撃を生成し、評価する。
論文 参考訳(メタデータ) (2025-09-24T08:15:28Z) - SoK: How Sensor Attacks Disrupt Autonomous Vehicles: An End-to-end Analysis, Challenges, and Missed Threats [26.103019161326795]
自動運転車、ロボット地上車両、ドローンは、安全で信頼性の高い運転を保証するために複雑なセンサーパイプラインに依存している。
これらの安全クリティカルなシステムは、その性能とミッションの成功を損なう可能性のある敵のセンサー攻撃に弱いままである。
本稿では,プラットフォーム間の自律走行車両センサ攻撃,センサのモダリティ,攻撃方法に関する包括的調査を行う。
論文 参考訳(メタデータ) (2025-09-14T06:19:26Z) - Exploring the Adversarial Vulnerabilities of Vision-Language-Action Models in Robotics [68.36528819227641]
本稿では,ビジョン・ランゲージ・アクション(VLA)モデルのロバスト性を体系的に評価する。
本研究では,ロボット行動の不安定化に空間的基盤を活用する2つの未目標攻撃目標と,ロボット軌道を操作する目標攻撃目標を導入する。
我々は、カメラの視野に小さなカラフルなパッチを配置し、デジタルと物理の両方の環境で効果的に攻撃を実行する逆パッチ生成アプローチを設計する。
論文 参考訳(メタデータ) (2024-11-18T01:52:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。