論文の概要: SilentDrift: Exploiting Action Chunking for Stealthy Backdoor Attacks on Vision-Language-Action Models
- arxiv url: http://arxiv.org/abs/2601.14323v1
- Date: Tue, 20 Jan 2026 01:24:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-22 21:27:50.097035
- Title: SilentDrift: Exploiting Action Chunking for Stealthy Backdoor Attacks on Vision-Language-Action Models
- Title(参考訳): SilentDrift:視覚・言語・アクションモデルを用いたステルスなバックドア攻撃に対する爆発的アクションチャンキング
- Authors: Bingxin Xu, Yuzhang Shang, Binghui Wang, Emilio Ferrara,
- Abstract要約: VLA(Vision-Language-Action)モデルは、安全クリティカルなロボットアプリケーションにますます採用されている。
現代のVLAシステムにおける基本的なセキュリティ欠陥を識別する。
我々は、この脆弱性を利用したステルスなブラックボックスバックドア攻撃であるSILENTDRIFTを提案する。
- 参考スコア(独自算出の注目度): 43.17292256124026
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vision-Language-Action (VLA) models are increasingly deployed in safety-critical robotic applications, yet their security vulnerabilities remain underexplored. We identify a fundamental security flaw in modern VLA systems: the combination of action chunking and delta pose representations creates an intra-chunk visual open-loop. This mechanism forces the robot to execute K-step action sequences, allowing per-step perturbations to accumulate through integration. We propose SILENTDRIFT, a stealthy black-box backdoor attack exploiting this vulnerability. Our method employs the Smootherstep function to construct perturbations with guaranteed C2 continuity, ensuring zero velocity and acceleration at trajectory boundaries to satisfy strict kinematic consistency constraints. Furthermore, our keyframe attack strategy selectively poisons only the critical approach phase, maximizing impact while minimizing trigger exposure. The resulting poisoned trajectories are visually indistinguishable from successful demonstrations. Evaluated on the LIBERO, SILENTDRIFT achieves a 93.2% Attack Success Rate with a poisoning rate under 2%, while maintaining a 95.3% Clean Task Success Rate.
- Abstract(参考訳): VLA(Vision-Language-Action)モデルは、安全クリティカルなロボットアプリケーションにますますデプロイされているが、セキュリティ上の脆弱性はまだ調査されていない。
アクションチャンキングとデルタポーズ表現の組み合わせは、チャンク内の視覚的オープンループを生成する。
このメカニズムはロボットにKステップのアクションシーケンスの実行を強制し、ステップごとの摂動を統合を通じて蓄積させる。
我々はこの脆弱性を利用したステルスなブラックボックスバックドア攻撃であるSILENTDRIFTを提案する。
Smootherstep関数を用いて、C2連続性を保証する摂動を構築し、軌道境界におけるゼロ速度と加速度を保証し、厳密なキネマティック一貫性の制約を満たす。
さらに、我々のキーフレーム攻撃戦略は、臨界アプローチフェーズのみを選択的に毒化し、トリガー露光を最小化しながら影響を最大化する。
結果として生じる有毒な軌跡は、実演の成功と視覚的に区別できない。
LIBEROでの評価では、SILENTDRIFTは93.2%の攻撃成功率を2%未満で達成し、95.3%のクリーンタスク成功率を維持している。
関連論文リスト
- State Backdoor: Towards Stealthy Real-world Poisoning Attack on Vision-Language-Action Model in State Space [42.234025453061875]
VLA(Vision-Language-Action)モデルは、ロボット工学などの安全クリティカルな実施AIアプリケーションに広く採用されている。
我々は,ロボットアームの初期状態をトリガーとして活用する,新規で実用的なバックドア攻撃であるState Backdoorを紹介した。
提案手法は,攻撃成功率の90%以上を良質なタスク性能に影響を与えることなく達成し,組込みAIシステムにおける未探索の脆弱性を明らかにする。
論文 参考訳(メタデータ) (2026-01-07T08:54:31Z) - Visual Backdoor Attacks on MLLM Embodied Decision Making via Contrastive Trigger Learning [89.1856483797116]
MLLMをベースとした組込みエージェントに視覚的バックドアを注入する最初のフレームワークであるBEATを紹介する。
テキストトリガーとは異なり、オブジェクトトリガーは視点や照明の幅が広いため、確実に移植することは困難である。
BEATは攻撃の成功率を最大80%まで達成し、強い良識のあるタスクパフォーマンスを維持します。
論文 参考訳(メタデータ) (2025-10-31T16:50:49Z) - FreezeVLA: Action-Freezing Attacks against Vision-Language-Action Models [124.02734355214325]
Vision-Language-Action(VLA)モデルはロボティクスの急速な進歩を加速している。
敵画像はVLAモデルを「凍結」し、その後の命令を無視する。
FreezeVLAは、min-maxバイレベル最適化を通じて、アクション凍結攻撃を生成し、評価する。
論文 参考訳(メタデータ) (2025-09-24T08:15:28Z) - Exploring the Adversarial Vulnerabilities of Vision-Language-Action Models in Robotics [68.36528819227641]
本稿では,ビジョン・ランゲージ・アクション(VLA)モデルのロバスト性を体系的に評価する。
本研究では,ロボット行動の不安定化に空間的基盤を活用する2つの未目標攻撃目標と,ロボット軌道を操作する目標攻撃目標を導入する。
我々は、カメラの視野に小さなカラフルなパッチを配置し、デジタルと物理の両方の環境で効果的に攻撃を実行する逆パッチ生成アプローチを設計する。
論文 参考訳(メタデータ) (2024-11-18T01:52:20Z) - BEEAR: Embedding-based Adversarial Removal of Safety Backdoors in Instruction-tuned Language Models [57.5404308854535]
大型言語モデル(LLM)における安全バックドア攻撃は、正常な相互作用中の検出を回避しながら、安全でない振る舞いをステルス的に引き起こすことができる。
モデル埋め込み空間において,バックドアトリガーが比較的均一なドリフトを引き起こすという知見を活かした緩和手法であるBEEARを提案する。
両レベル最適化手法は、不要な振る舞いを誘発する普遍的な埋め込み摂動を特定し、モデルパラメータを調整し、これらの摂動に対する安全な振舞いを強化する。
論文 参考訳(メタデータ) (2024-06-24T19:29:47Z) - Can We Trust Embodied Agents? Exploring Backdoor Attacks against Embodied LLM-based Decision-Making Systems [27.316115171846953]
大規模言語モデル(LLM)は、実世界のAI意思決定タスクにおいて大きな可能性を示している。
LLMは、固有の常識と推論能力を活用するために微調整され、特定の用途に適合する。
この微調整プロセスは、特に安全クリティカルなサイバー物理システムにおいて、かなりの安全性とセキュリティの脆弱性をもたらす。
論文 参考訳(メタデータ) (2024-05-27T17:59:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。