論文の概要: Temporal Logic-Based Multi-Vehicle Backdoor Attacks against Offline RL Agents in End-to-end Autonomous Driving
- arxiv url: http://arxiv.org/abs/2509.16950v1
- Date: Sun, 21 Sep 2025 07:13:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 14:51:59.551061
- Title: Temporal Logic-Based Multi-Vehicle Backdoor Attacks against Offline RL Agents in End-to-end Autonomous Driving
- Title(参考訳): エンド・ツー・エンド自動運転におけるオフラインRLエージェントに対する時間論理に基づく多車両バックドア攻撃
- Authors: Xuan Chen, Shiwei Feng, Zikang Xiong, Shengwei An, Yunshu Mao, Lu Yan, Guanhong Tao, Wenbo Guo, Xiangyu Zhang,
- Abstract要約: 我々は、1台以上の車両の軌道をトリガーとして利用するエンド・ツー・エンドADシステムに対する新たなバックドア攻撃を導入する。
我々は、トリガーに似ているがバックドアを起動しないパッチトラジェクトリを組み込むことで、負のトレーニング戦略を開発する。
提案攻撃の柔軟性と効果を実証し、既存のエンドツーエンドADシステムの脆弱性を調査する。
- 参考スコア(独自算出の注目度): 26.094398456088403
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Assessing the safety of autonomous driving (AD) systems against security threats, particularly backdoor attacks, is a stepping stone for real-world deployment. However, existing works mainly focus on pixel-level triggers that are impractical to deploy in the real world. We address this gap by introducing a novel backdoor attack against the end-to-end AD systems that leverage one or more other vehicles' trajectories as triggers. To generate precise trigger trajectories, we first use temporal logic (TL) specifications to define the behaviors of attacker vehicles. Configurable behavior models are then used to generate these trajectories, which are quantitatively evaluated and iteratively refined based on the TL specifications. We further develop a negative training strategy by incorporating patch trajectories that are similar to triggers but are designated not to activate the backdoor. It enhances the stealthiness of the attack and refines the system's responses to trigger scenarios. Through extensive experiments on 5 offline reinforcement learning (RL) driving agents with 6 trigger patterns and target action combinations, we demonstrate the flexibility and effectiveness of our proposed attack, showing the under-exploration of existing end-to-end AD systems' vulnerabilities to such trajectory-based backdoor attacks.
- Abstract(参考訳): セキュリティ上の脅威、特にバックドア攻撃に対する自律運転(AD)システムの安全性を評価することは、現実世界の展開の足掛かりとなる。
しかし、既存の研究は主に、現実世界に展開できないピクセルレベルのトリガーに焦点を当てている。
我々は、1台以上の車両の軌道をトリガーとして利用するエンド・ツー・エンドADシステムに対する新たなバックドア攻撃を導入することで、このギャップに対処する。
正確なトリガー軌道を生成するために、まず時間論理(TL)仕様を用いて攻撃車両の動作を定義する。
構成可能な振る舞いモデルを用いてこれらの軌跡を生成し、TL仕様に基づいて定量的に評価され、反復的に洗練される。
我々はさらに、トリガーに似ているがバックドアをアクティブにしないパッチトラジェクトリを組み込むことで、ネガティブなトレーニング戦略を開発する。
攻撃のステルス性を高め、システムの応答を洗練してシナリオをトリガーする。
5つのオフライン強化学習(RL)駆動エージェントの6つのトリガパターンと目標動作の組み合わせによる広範な実験を通じて、提案手法の柔軟性と有効性を示し、既存のエンドツーエンドADシステムの脆弱性をそのような軌跡ベースのバックドア攻撃に過小評価していることを示す。
関連論文リスト
- Attackers Strike Back? Not Anymore - An Ensemble of RL Defenders Awakens for APT Detection [1.102914654802229]
Advanced Persistent Threats (APT) は、現代のデジタルインフラに対する脅威の高まりを表している。
従来のサイバー攻撃とは異なり、APTはステルス性、適応性、長期性があり、しばしばシグネチャベースの検知システムをバイパスする。
本稿では, 深層学習, 強化学習, 能動的学習を結合型適応防衛システムに統合する新しいAPT検出フレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-26T14:29:10Z) - TrojanTO: Action-Level Backdoor Attacks against Trajectory Optimization Models [67.06525001375722]
TrojanTOはTOモデルに対する最初のアクションレベルのバックドア攻撃である。
様々なタスクにバックドア攻撃を移植し、低い攻撃予算で目標を攻撃する。
TrojanTOはDT、GDT、DCに広く適用可能である。
論文 参考訳(メタデータ) (2025-06-15T11:27:49Z) - Black-Box Adversarial Attack on Vision Language Models for Autonomous Driving [65.61999354218628]
我々は、自律運転システムにおいて、視覚言語モデル(VLM)をターゲットとしたブラックボックス敵攻撃を設計する第一歩を踏み出す。
セマンティクスの生成と注入による低レベル推論の分解を目標とするカスケーディング・アディバーショナル・ディスラプション(CAD)を提案する。
本稿では,高レベルリスクシナリオの理解と構築に代理VLMを活用することで,動的適応に対処するリスクシーンインジェクションを提案する。
論文 参考訳(メタデータ) (2025-01-23T11:10:02Z) - AnywhereDoor: Multi-Target Backdoor Attacks on Object Detection [9.539021752700823]
AnywhereDoorは、オブジェクト検出のためのマルチターゲットバックドアアタックである。
敵は、すべてのオブジェクトクラスまたは特定のオブジェクトクラスをまたいで、オブジェクトを消したり、新しいオブジェクトを作ったり、ラベルを間違えたりすることができる。
このような柔軟な制御のための既存の手法の適応と比較して、攻撃成功率を26%向上させる。
論文 参考訳(メタデータ) (2024-11-21T15:50:59Z) - ASPIRER: Bypassing System Prompts With Permutation-based Backdoors in LLMs [17.853862145962292]
システムプロンプトを体系的に回避する新しいバックドアアタックを導入する。
本手法は,98.58%のクリーン精度(CACC)を維持しつつ,攻撃成功率(ASR)を99.50%まで達成する。
論文 参考訳(メタデータ) (2024-10-05T02:58:20Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Trojan Activation Attack: Red-Teaming Large Language Models using Activation Steering for Safety-Alignment [31.24530091590395]
本研究では,大規模言語モデルの活性化層にトロイの木馬ステアリングベクトルを注入する,Trojan Activation Attack (TA2) と呼ばれる攻撃シナリオについて検討する。
実験の結果,TA2は高効率であり,攻撃効率のオーバーヘッドがほとんどあるいは全くないことがわかった。
論文 参考訳(メタデータ) (2023-11-15T23:07:40Z) - Adversarial Backdoor Attack by Naturalistic Data Poisoning on Trajectory
Prediction in Autonomous Driving [18.72382517467458]
本稿では,軌道予測モデルに対する新たな逆バックドア攻撃を提案する。
我々の攻撃は、自然主義的、従って、新しい2段階のアプローチで作られた毒のサンプルを盗むことによって、訓練時に被害者に影響を及ぼす。
提案手法は,予測モデルの性能を著しく損なうおそれがあり,攻撃効果が高いことを示す。
論文 参考訳(メタデータ) (2023-06-27T19:15:06Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。