論文の概要: When Robots Obey the Patch: Universal Transferable Patch Attacks on Vision-Language-Action Models
- arxiv url: http://arxiv.org/abs/2511.21192v1
- Date: Wed, 26 Nov 2025 09:16:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-27 18:37:59.032296
- Title: When Robots Obey the Patch: Universal Transferable Patch Attacks on Vision-Language-Action Models
- Title(参考訳): ロボットがパッチを無視するとき:ビジョン・ランゲージ・アクション・モデルによるユニバーサル・トランスファー可能なパッチ・アタック
- Authors: Hui Lu, Yi Yu, Yiming Yang, Chenyu Yi, Qixin Zhang, Bingquan Shen, Alex C. Kot, Xudong Jiang,
- Abstract要約: VLA(Vision-Language-Action)モデルは敵の攻撃に弱いが、普遍的かつ移動可能な攻撃は未発見のままである。
UPA-RFAS(Universal Patch Attack via Robust Feature, Attention, and Semantics)は、単一の物理的パッチを共有機能空間で学習する統合フレームワークである。
多様なVLAモデル、操作スイート、物理実行の実験は、UPA-RFASがモデル、タスク、視点を一貫して移行していることを示している。
- 参考スコア(独自算出の注目度): 81.7618160628979
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vision-Language-Action (VLA) models are vulnerable to adversarial attacks, yet universal and transferable attacks remain underexplored, as most existing patches overfit to a single model and fail in black-box settings. To address this gap, we present a systematic study of universal, transferable adversarial patches against VLA-driven robots under unknown architectures, finetuned variants, and sim-to-real shifts. We introduce UPA-RFAS (Universal Patch Attack via Robust Feature, Attention, and Semantics), a unified framework that learns a single physical patch in a shared feature space while promoting cross-model transfer. UPA-RFAS combines (i) a feature-space objective with an $\ell_1$ deviation prior and repulsive InfoNCE loss to induce transferable representation shifts, (ii) a robustness-augmented two-phase min-max procedure where an inner loop learns invisible sample-wise perturbations and an outer loop optimizes the universal patch against this hardened neighborhood, and (iii) two VLA-specific losses: Patch Attention Dominance to hijack text$\to$vision attention and Patch Semantic Misalignment to induce image-text mismatch without labels. Experiments across diverse VLA models, manipulation suites, and physical executions show that UPA-RFAS consistently transfers across models, tasks, and viewpoints, exposing a practical patch-based attack surface and establishing a strong baseline for future defenses.
- Abstract(参考訳): VLA(Vision-Language-Action)モデルは敵の攻撃に対して脆弱であるが、既存のパッチは単一モデルに過度に適合し、ブラックボックス設定では失敗するため、普遍的で転送可能な攻撃は未探索のままである。
このギャップに対処するために、未知のアーキテクチャ、微調整された変種、およびシム・トゥ・リアルシフトの下でのVLA駆動ロボットに対する普遍的で移動可能な敵パッチの体系的研究を行う。
UPA-RFAS(Universal Patch Attack via Robust Feature, Attention, and Semantics)は,共有機能空間における単一物理パッチを学習し,クロスモデル転送を促進する統合フレームワークである。
UPA-RFASコンビネーション
i)$\ell_1$の逸脱と、転送可能な表現シフトを誘導するrepulsive InfoNCE損失を持つ特徴空間の目的。
(二)内部ループが目に見えないサンプル回りの摂動を学習し、外側ループがこの硬化した近傍に対する普遍パッチを最適化するロバスト性強化二相分極法
3) VLA固有の2つの損失: ハイジャックテキストに対するパッチ注意優位$\to$vision attentionとラベルなしで画像テキストミスマッチを誘導するパッチセマンティックミスアライメント。
多様なVLAモデル、操作スイート、物理実行の実験により、UPA-RFASはモデル、タスク、視点を一貫して移動し、実用的なパッチベースの攻撃面を露出し、将来の防御のための強力なベースラインを確立する。
関連論文リスト
- Model-agnostic Adversarial Attack and Defense for Vision-Language-Action Models [25.45513133247862]
VLA(Vision-Language-Action)モデルは、ロボット学習において革命的な進歩を遂げている。
この進歩にもかかわらず、その敵意の強固さは未解明のままである。
本稿では,VLAモデルに対する敵パッチ攻撃と対応する防御戦略の両方を提案する。
論文 参考訳(メタデータ) (2025-10-15T07:42:44Z) - TabVLA: Targeted Backdoor Attacks on Vision-Language-Action Models [63.51290426425441]
バックドア付きVLAエージェントは、プレインジェクトされたバックドアによって隠蔽的にトリガーされ、敵のアクションを実行することができる。
我々は,VLAモデルに対するターゲットバックドア攻撃について検討し,ブラックボックスファインチューニングによる攻撃を可能にする新しいフレームワークであるTabVLAを紹介した。
我々の研究は、バックドア操作をターゲットにしたVLAモデルの脆弱性を強調し、より高度な防御の必要性を強調します。
論文 参考訳(メタデータ) (2025-10-13T02:45:48Z) - Universal Camouflage Attack on Vision-Language Models for Autonomous Driving [67.34987318443761]
自動運転のためのビジュアル言語モデリングが、有望な研究方向として浮上している。
VLM-ADは、敵の攻撃による深刻なセキュリティ脅威に弱いままである。
VLM-ADのための最初のユニバーサルカモフラージュ攻撃フレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-24T14:52:01Z) - IAP: Invisible Adversarial Patch Attack through Perceptibility-Aware Localization and Perturbation Optimization [3.096869664709865]
敵のパッチは コンピュータビジョンモデルの 予測を劇的に変える
我々は、非常に目に見えない敵のパッチを生成する新しい攻撃フレームワーク、IAPを紹介した。
IAPは、ターゲット設定における競合攻撃の成功率を一貫して達成する。
論文 参考訳(メタデータ) (2025-07-09T13:58:40Z) - Boosting Adversarial Transferability with Spatial Adversarial Alignment [56.97809949196889]
ディープニューラルネットワークは、様々なモデルにまたがる転送可能性を示す敵の例に対して脆弱である。
本稿では,アライメント損失を利用してサロゲートモデルを微調整する手法を提案する。
ImageNet上の様々なアーキテクチャの実験では、SAAに基づくアライメントされたサロゲートモデルにより、より高い転送可能な逆の例が得られることが示されている。
論文 参考訳(メタデータ) (2025-01-02T02:35:47Z) - Generative Adversarial Patches for Physical Attacks on Cross-Modal Pedestrian Re-Identification [24.962600785183582]
Visible-Infrared pedestrian Re-identification (VI-ReID)は、赤外線カメラと可視カメラで撮影された歩行者画像とをマッチングすることを目的としている。
本稿では,VI-ReIDモデルに対する最初の物理的攻撃について紹介する。
論文 参考訳(メタデータ) (2024-10-26T06:40:10Z) - PG-Attack: A Precision-Guided Adversarial Attack Framework Against Vision Foundation Models for Autonomous Driving [23.13958600806388]
ビジョンファウンデーションモデルは、高度な能力のため、自律運転システムにますます採用されている。
これらのモデルは敵の攻撃を受けやすいため、自動運転車の信頼性と安全性に大きなリスクが生じる。
本稿では, 高精度マスク摂動攻撃と知覚テキストパッチ攻撃の2つの手法を組み合わせた, 高精度誘導逆攻撃フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-18T02:39:31Z) - Towards Robust Semantic Segmentation against Patch-based Attack via Attention Refinement [68.31147013783387]
我々は,アテンション機構がパッチベースの敵攻撃に弱いことを観察した。
本稿では,意味的セグメンテーションモデルの堅牢性を改善するために,ロバスト注意機構(RAM)を提案する。
論文 参考訳(メタデータ) (2024-01-03T13:58:35Z) - Generating Transferable and Stealthy Adversarial Patch via
Attention-guided Adversarial Inpainting [12.974292128917222]
本稿では,Adv-Inpaintingと呼ばれる2段階の対向パッチ攻撃を提案する。
第1段階では,攻撃者からそれぞれスタイル特徴と識別特徴を抽出する。
提案するレイヤは、優先コンテキスト情報を完全に活用することにより、アイデンティティとスタイルの埋め込みを適応的に融合させることができる。
第2段階では,新たな境界分散損失を有するAPR-Net(Adversarial Patch Refinement Network)を設計する。
論文 参考訳(メタデータ) (2023-08-10T03:44:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。