論文の概要: Adversarial Attacks on Robotic Vision Language Action Models
- arxiv url: http://arxiv.org/abs/2506.03350v1
- Date: Tue, 03 Jun 2025 19:43:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 21:20:14.031114
- Title: Adversarial Attacks on Robotic Vision Language Action Models
- Title(参考訳): ロボットビジョン言語行動モデルに対する敵対的攻撃
- Authors: Eliot Krzysztof Jones, Alexander Robey, Andy Zou, Zachary Ravichandran, George J. Pappas, Hamed Hassani, Matt Fredrikson, J. Zico Kolter,
- Abstract要約: 視覚言語行動モデル(VLA)に対する敵対的攻撃について検討する。
我々のアルゴリズムの主な貢献は、完全な制御権限を得るためのLLMジェイルブレイク攻撃の適応と応用である。
LLMのジェイルブレイク文学とは大きく異なるのは、現実世界の攻撃は害の概念と意味的に結びついている必要はないからである。
- 参考スコア(独自算出の注目度): 118.02118618146568
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The emergence of vision-language-action models (VLAs) for end-to-end control is reshaping the field of robotics by enabling the fusion of multimodal sensory inputs at the billion-parameter scale. The capabilities of VLAs stem primarily from their architectures, which are often based on frontier large language models (LLMs). However, LLMs are known to be susceptible to adversarial misuse, and given the significant physical risks inherent to robotics, questions remain regarding the extent to which VLAs inherit these vulnerabilities. Motivated by these concerns, in this work we initiate the study of adversarial attacks on VLA-controlled robots. Our main algorithmic contribution is the adaptation and application of LLM jailbreaking attacks to obtain complete control authority over VLAs. We find that textual attacks, which are applied once at the beginning of a rollout, facilitate full reachability of the action space of commonly used VLAs and often persist over longer horizons. This differs significantly from LLM jailbreaking literature, as attacks in the real world do not have to be semantically linked to notions of harm. We make all code available at https://github.com/eliotjones1/robogcg .
- Abstract(参考訳): エンドツーエンド制御のための視覚-言語-アクションモデル(VLA)の出現は、数十億パラメータスケールでのマルチモーダル感覚入力の融合を可能にして、ロボット工学の分野を再構築している。
VLAの機能は、主にアーキテクチャに起因しており、多くの場合、よりフロンティアな大規模言語モデル(LLM)に基づいている。
しかし、LSMは敵の誤用に感受性があることが知られており、ロボット工学に固有の重大な物理的リスクを考えると、VLAがこれらの脆弱性を継承する程度について疑問が残る。
これらの懸念に感銘を受け、本研究では、VLA制御ロボットに対する敵攻撃の研究を開始する。
我々のアルゴリズムの主な貢献は、VLAに対する完全な制御権限を得るためのLLMジェイルブレイク攻撃の適応と応用である。
ロールアウトの開始時に一度適用されたテキスト攻撃は、よく使われるVLAのアクション空間の完全な到達性を促進し、しばしば長い水平線上で持続する。
LLMのジェイルブレイク文学とは大きく異なるのは、現実世界の攻撃は害の概念と意味的に結びついている必要はないからである。
すべてのコードはhttps://github.com/eliotjones1/robogcgで利用可能です。
関連論文リスト
- Emerging Security Challenges of Large Language Models [6.151633954305939]
大規模言語モデル(LLM)は、多くの異なる分野において短期間で記録的な普及を遂げた。
これらは、特定の下流タスクに合わせて調整されることなく、多様なデータでトレーニングされたオープンエンドモデルである。
従来の機械学習(ML)モデルは、敵の攻撃に対して脆弱である。
論文 参考訳(メタデータ) (2024-12-23T14:36:37Z) - Exploring the Adversarial Vulnerabilities of Vision-Language-Action Models in Robotics [68.36528819227641]
本稿では,VLAに基づくロボットシステムのロバスト性を体系的に評価する。
本研究では,ロボット行動の不安定化に空間的基盤を活用する2つの未目標攻撃目標と,ロボット軌道を操作する目標攻撃目標を導入する。
我々は、カメラの視野に小さなカラフルなパッチを配置し、デジタルと物理の両方の環境で効果的に攻撃を実行する逆パッチ生成アプローチを設計する。
論文 参考訳(メタデータ) (2024-11-18T01:52:20Z) - BadRobot: Jailbreaking Embodied LLMs in the Physical World [20.96351292684658]
Embodied AIは、AIが物理的エンティティに統合されるシステムを表す。
大きな言語モデル(LLM)は強力な言語理解能力を示す。
我々は,従来の音声ベースのユーザシステムインタラクションを通じて,LLMを安全性や倫理的制約に違反させることを目的とした,新たな攻撃パラダイムであるBadRobotを紹介した。
論文 参考訳(メタデータ) (2024-07-16T13:13:16Z) - On the Vulnerability of LLM/VLM-Controlled Robotics [54.57914943017522]
大規模言語モデル(LLM)と視覚言語モデル(VLM)を統合するロボットシステムの脆弱性を,入力モダリティの感度によって強調する。
LLM/VLM制御型2つのロボットシステムにおいて,単純な入力摂動がタスク実行の成功率を22.2%,14.6%減少させることを示す。
論文 参考訳(メタデータ) (2024-02-15T22:01:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。