論文の概要: Phantom Menace: Exploring and Enhancing the Robustness of VLA Models against Physical Sensor Attacks
- arxiv url: http://arxiv.org/abs/2511.10008v1
- Date: Fri, 14 Nov 2025 01:25:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.635919
- Title: Phantom Menace: Exploring and Enhancing the Robustness of VLA Models against Physical Sensor Attacks
- Title(参考訳): Phantom Menace:VLAモデルの物理的センサー攻撃に対するロバスト性を探究し、改善する
- Authors: Xuancun Lu, Jiaxiang Chen, Shilin Xiao, Zizhi Jin, Zhangrui Chen, Hanwen Yu, Bohan Qian, Ruochen Zhou, Xiaoyu Ji, Wenyuan Xu,
- Abstract要約: VLA(Vision-Language-Action)モデルは、エンドツーエンドの知覚対アクションパイプラインを可能にすることで、ロボットシステムに革命をもたらす。
これらのパイプラインは、カメラによって処理された視覚信号やマイクによってキャプチャされた聴覚信号など、複数の感覚的モダリティを統合している。
VLAベースのシステムがセンサー入力に大きく依存していることを考えると、物理世界のセンサー攻撃に対するVLAモデルのセキュリティはいまだに過小評価されている。
- 参考スコア(独自算出の注目度): 17.07905934998345
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Vision-Language-Action (VLA) models revolutionize robotic systems by enabling end-to-end perception-to-action pipelines that integrate multiple sensory modalities, such as visual signals processed by cameras and auditory signals captured by microphones. This multi-modality integration allows VLA models to interpret complex, real-world environments using diverse sensor data streams. Given the fact that VLA-based systems heavily rely on the sensory input, the security of VLA models against physical-world sensor attacks remains critically underexplored. To address this gap, we present the first systematic study of physical sensor attacks against VLAs, quantifying the influence of sensor attacks and investigating the defenses for VLA models. We introduce a novel ``Real-Sim-Real'' framework that automatically simulates physics-based sensor attack vectors, including six attacks targeting cameras and two targeting microphones, and validates them on real robotic systems. Through large-scale evaluations across various VLA architectures and tasks under varying attack parameters, we demonstrate significant vulnerabilities, with susceptibility patterns that reveal critical dependencies on task types and model designs. We further develop an adversarial-training-based defense that enhances VLA robustness against out-of-distribution physical perturbations caused by sensor attacks while preserving model performance. Our findings expose an urgent need for standardized robustness benchmarks and mitigation strategies to secure VLA deployments in safety-critical environments.
- Abstract(参考訳): VLA(Vision-Language-Action)モデルは、カメラによって処理された視覚信号やマイクによってキャプチャされた聴覚信号など、複数の感覚的モダリティを統合するエンドツーエンドの知覚対アクションパイプラインを可能にすることで、ロボットシステムに革命をもたらす。
このマルチモダリティ統合により、VLAモデルは多様なセンサデータストリームを使用して、複雑な現実世界環境を解釈することができる。
VLAベースのシステムがセンサー入力に大きく依存していることを考えると、物理世界のセンサー攻撃に対するVLAモデルのセキュリティはいまだに過小評価されている。
このギャップに対処するために、VLAに対する物理的なセンサー攻撃の体系的研究を行い、センサ攻撃の影響を定量化し、VLAモデルに対する防御を検証した。
本稿では,6台のカメラと2台のマイクロホンを標的とした攻撃を含む物理ベースのセンサ攻撃ベクトルを自動的にシミュレートし,それらを実際のロボットシステム上で検証する,新しい‘Real-Sim-Real’フレームワークを提案する。
さまざまなVLAアーキテクチャや,さまざまな攻撃パラメータの下でのタスクに対する大規模な評価を通じて,タスクタイプやモデル設計に重要な依存関係を示す感受性パターンを用いて,重大な脆弱性を示す。
さらに, モデル性能を維持しつつ, センサアタックによる物理的摂動に対するVLA堅牢性を向上する対向学習型防御法を開発した。
本研究は,安全クリティカル環境におけるVLAの安全性確保のための,標準化されたロバストネスベンチマークと緩和戦略の緊急的ニーズを明らかにした。
関連論文リスト
- Towards Trustworthy Wi-Fi Sensing: Systematic Evaluation of Deep Learning Model Robustness to Adversarial Attacks [4.5835414225547195]
我々は、多様な脅威モデルと様々な攻撃リアリズムの下で、CSI深層学習モデルの堅牢性を評価する。
私たちの実験では、より小さなモデルは効率的で、クリーンなデータでも等しく機能するが、明らかにロバストさが低いことが示されています。
物理的に実現可能な信号空間の摂動は、実際の無線チャネルで実現可能なように設計されており、攻撃の成功を著しく減少させる。
論文 参考訳(メタデータ) (2025-11-25T16:24:29Z) - AttackVLA: Benchmarking Adversarial and Backdoor Attacks on Vision-Language-Action Models [60.39655329875822]
VLA(Vision-Language-Action)モデルは、ロボットが自然言語の命令を解釈し、多様なタスクを実行することを可能にするモデルである。
このようなモデルを攻撃することへの関心は高まっているが、既存の手法の有効性は依然として不明である。
我々はVLA開発ライフサイクルに合わせて統合されたフレームワークであるAttackVLAを提案する。
論文 参考訳(メタデータ) (2025-11-15T10:30:46Z) - Model-agnostic Adversarial Attack and Defense for Vision-Language-Action Models [25.45513133247862]
VLA(Vision-Language-Action)モデルは、ロボット学習において革命的な進歩を遂げている。
この進歩にもかかわらず、その敵意の強固さは未解明のままである。
本稿では,VLAモデルに対する敵パッチ攻撃と対応する防御戦略の両方を提案する。
論文 参考訳(メタデータ) (2025-10-15T07:42:44Z) - Universal Camouflage Attack on Vision-Language Models for Autonomous Driving [67.34987318443761]
自動運転のためのビジュアル言語モデリングが、有望な研究方向として浮上している。
VLM-ADは、敵の攻撃による深刻なセキュリティ脅威に弱いままである。
VLM-ADのための最初のユニバーサルカモフラージュ攻撃フレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-24T14:52:01Z) - FreezeVLA: Action-Freezing Attacks against Vision-Language-Action Models [124.02734355214325]
Vision-Language-Action(VLA)モデルはロボティクスの急速な進歩を加速している。
敵画像はVLAモデルを「凍結」し、その後の命令を無視する。
FreezeVLAは、min-maxバイレベル最適化を通じて、アクション凍結攻撃を生成し、評価する。
論文 参考訳(メタデータ) (2025-09-24T08:15:28Z) - SoK: How Sensor Attacks Disrupt Autonomous Vehicles: An End-to-end Analysis, Challenges, and Missed Threats [26.103019161326795]
自動運転車、ロボット地上車両、ドローンは、安全で信頼性の高い運転を保証するために複雑なセンサーパイプラインに依存している。
これらの安全クリティカルなシステムは、その性能とミッションの成功を損なう可能性のある敵のセンサー攻撃に弱いままである。
本稿では,プラットフォーム間の自律走行車両センサ攻撃,センサのモダリティ,攻撃方法に関する包括的調査を行う。
論文 参考訳(メタデータ) (2025-09-14T06:19:26Z) - Adversarial Attacks on Robotic Vision Language Action Models [118.02118618146568]
視覚言語行動モデル(VLA)に対する敵対的攻撃について検討する。
我々のアルゴリズムの主な貢献は、完全な制御権限を得るためのLLMジェイルブレイク攻撃の適応と応用である。
LLMのジェイルブレイク文学とは大きく異なるのは、現実世界の攻撃は害の概念と意味的に結びついている必要はないからである。
論文 参考訳(メタデータ) (2025-06-03T19:43:58Z) - Exploring the Adversarial Vulnerabilities of Vision-Language-Action Models in Robotics [68.36528819227641]
本稿では,ビジョン・ランゲージ・アクション(VLA)モデルのロバスト性を体系的に評価する。
本研究では,ロボット行動の不安定化に空間的基盤を活用する2つの未目標攻撃目標と,ロボット軌道を操作する目標攻撃目標を導入する。
我々は、カメラの視野に小さなカラフルなパッチを配置し、デジタルと物理の両方の環境で効果的に攻撃を実行する逆パッチ生成アプローチを設計する。
論文 参考訳(メタデータ) (2024-11-18T01:52:20Z) - Studying the Robustness of Anti-adversarial Federated Learning Models
Detecting Cyberattacks in IoT Spectrum Sensors [0.4925222726301578]
デバイスフィンガープリントと機械学習(ML/DL)が組み合わさって、リソース制約スペクトルセンサによって管理されるデータを対象としたサイバー攻撃を検出する際に、有望な性能を報告している。
モデルのトレーニングに必要なデータ量と、そのようなシナリオのプライバシに関する懸念は、集中型ML/DLベースのアプローチの適用性を制限します。
論文 参考訳(メタデータ) (2022-01-31T22:52:00Z) - Towards robust sensing for Autonomous Vehicles: An adversarial
perspective [82.83630604517249]
結果として得られる決定が摂動に対して堅牢であることは、最も重要なことです。
敵対的摂動は、意図的に環境や感覚測定の修正を施したものである。
より安全なシステムの構築とデプロイには,センサーシステムの脆弱性を慎重に評価する必要がある。
論文 参考訳(メタデータ) (2020-07-14T05:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。