論文の概要: Goal-oriented Backdoor Attack against Vision-Language-Action Models via Physical Objects
- arxiv url: http://arxiv.org/abs/2510.09269v1
- Date: Fri, 10 Oct 2025 11:09:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 00:38:48.792335
- Title: Goal-oriented Backdoor Attack against Vision-Language-Action Models via Physical Objects
- Title(参考訳): 物理物体による視覚言語行動モデルに対するゴール指向のバックドアアタック
- Authors: Zirun Zhou, Zhengyang Xiao, Haochuan Xu, Jing Sun, Di Wang, Jingfeng Zhang,
- Abstract要約: 視覚言語アクション(VLA)モデルのためのゴール指向バックドアアタック(GoBA)を提案する。
GoBAは、物理的トリガーの存在下で、事前に定義された、目標指向のアクションを実行する。
実験の結果、GOBAは被害者のVLAが97%の入力でバックドアゴールを達成できることを示した。
- 参考スコア(独自算出の注目度): 18.741802167656903
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recent advances in vision-language-action (VLA) models have greatly improved embodied AI, enabling robots to follow natural language instructions and perform diverse tasks. However, their reliance on uncurated training datasets raises serious security concerns. Existing backdoor attacks on VLAs mostly assume white-box access and result in task failures instead of enforcing specific actions. In this work, we reveal a more practical threat: attackers can manipulate VLAs by simply injecting physical objects as triggers into the training dataset. We propose goal-oriented backdoor attacks (GoBA), where the VLA behaves normally in the absence of physical triggers but executes predefined and goal-oriented actions in the presence of physical triggers. Specifically, based on a popular VLA benchmark LIBERO, we introduce BadLIBERO that incorporates diverse physical triggers and goal-oriented backdoor actions. In addition, we propose a three-level evaluation that categorizes the victim VLA's actions under GoBA into three states: nothing to do, try to do, and success to do. Experiments show that GoBA enables the victim VLA to successfully achieve the backdoor goal in 97 percentage of inputs when the physical trigger is present, while causing zero performance degradation on clean inputs. Finally, by investigating factors related to GoBA, we find that the action trajectory and trigger color significantly influence attack performance, while trigger size has surprisingly little effect. The code and BadLIBERO dataset are accessible via the project page at https://goba-attack.github.io/.
- Abstract(参考訳): 近年、視覚言語アクション(VLA)モデルが大幅に改善され、ロボットは自然言語の指示に従い、多様なタスクを実行できるようになった。
しかし、未処理のトレーニングデータセットへの依存は深刻なセキュリティ上の懸念を引き起こす。
既存のVLAに対するバックドア攻撃は、主にホワイトボックスアクセスを前提としており、特定のアクションを強制するのではなく、タスクが失敗する。
攻撃者はトレーニングデータセットに物理的なオブジェクトをトリガーとして注入するだけで、VLAを操作できる。
目標指向バックドア攻撃 (GoBA) では, VLAは通常, 物理的トリガーが存在しない状態で動作するが, 物理的トリガーが存在する場合, 予め定義された, 目標指向のアクションを実行する。
具体的には、人気のあるVLAベンチマークLIBEROに基づいて、多様な物理的トリガと目標指向のバックドアアクションを組み込んだBadLIBEROを紹介する。
また,GOBAによる被害者の行動の3つの状態(何もしない,やろうとしない,成功する)に分類する三段階評価を提案する。
実験の結果、GOBAは物理的トリガーが存在する場合、97%の入力で被害者のVLAがバックドアゴールを達成するのに成功し、クリーンインプットの性能劣化はゼロであることがわかった。
最後に、GoBAに関連する要因を調査した結果、アクション軌跡とトリガーカラーが攻撃性能に著しく影響し、トリガーサイズが驚くほど小さいことが判明した。
コードとBadLIBEROデータセットはプロジェクトページからhttps://goba- attack.github.io/.com/からアクセスすることができる。
関連論文リスト
- Poison Once, Control Anywhere: Clean-Text Visual Backdoors in VLM-based Mobile Agents [54.35629963816521]
この研究は、VLMベースのモバイルエージェントをターゲットにした最初のクリーンテキストバックドアアタックであるVIBMAを紹介する。
この攻撃は、視覚的な入力だけを変更することによって、悪意ある振る舞いをモデルに注入する。
クリーンタスクの動作を保ちながら高い成功率を達成できることを示す。
論文 参考訳(メタデータ) (2025-06-16T08:09:32Z) - Adversarial Attacks on Robotic Vision Language Action Models [118.02118618146568]
視覚言語行動モデル(VLA)に対する敵対的攻撃について検討する。
我々のアルゴリズムの主な貢献は、完全な制御権限を得るためのLLMジェイルブレイク攻撃の適応と応用である。
LLMのジェイルブレイク文学とは大きく異なるのは、現実世界の攻撃は害の概念と意味的に結びついている必要はないからである。
論文 参考訳(メタデータ) (2025-06-03T19:43:58Z) - BadVLA: Towards Backdoor Attacks on Vision-Language-Action Models via Objective-Decoupled Optimization [45.97834622654751]
BadVLAはObjective-Decoupled Optimizationに基づくバックドア攻撃手法である。
我々は,BadVLAがクリーンタスク精度に最小限の影響を伴って,ほぼ100%の攻撃成功率を達成することを示す。
我々の研究は、VLAモデルにおけるバックドア脆弱性に関する最初の体系的な調査を提供する。
論文 参考訳(メタデータ) (2025-05-22T13:12:46Z) - Clean-Label Physical Backdoor Attacks with Data Distillation [6.472397166280682]
ディープニューラルネットワーク(DNN)は、バックドア中毒の攻撃に弱いことが示されている。
物理的トリガーは攻撃者にとって有望な代替手段であり、デジタル操作なしでリアルタイムでバックドアを起動できる。
既存の物理バックドア攻撃は汚いラベルであり、攻撃者は有害な入力のラベルをターゲットラベルに変更しなければならない。
トレーニング段階でラベル操作やトリガーインジェクションを必要としない新しい物理バックドアアタックのパラダイムであるクリーンラベル物理バックドアアタック(CLPBA)を導入する。
論文 参考訳(メタデータ) (2024-07-27T08:13:07Z) - CASSOCK: Viable Backdoor Attacks against DNN in The Wall of
Source-Specific Backdoor Defences [29.84771472633627]
バックドア攻撃はディープニューラルネットワーク(DNN)にとって重要な脅威だった
既存のほとんどの対策はソース非依存のバックドアアタック(SABA)に焦点を当てており、ソース固有のバックドアアタック(SSBA)を倒さない。
論文 参考訳(メタデータ) (2022-05-31T23:09:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。