論文の概要: Don't Watch Me: A Spatio-Temporal Trojan Attack on
Deep-Reinforcement-Learning-Augment Autonomous Driving
- arxiv url: http://arxiv.org/abs/2211.14440v1
- Date: Tue, 22 Nov 2022 02:42:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-04 13:49:04.153286
- Title: Don't Watch Me: A Spatio-Temporal Trojan Attack on
Deep-Reinforcement-Learning-Augment Autonomous Driving
- Title(参考訳): 深度強化学習型自動運転における時空間トロイの木馬攻撃
- Authors: Yinbo Yu, Jiajia Liu
- Abstract要約: 我々はDRLポリシーに対する時空間トロイの木馬攻撃を設計し、引き金は空間的および時空間的な交通特徴の列に隠蔽される。
我々のトロイの木馬では、敵は周囲の通常の乗り物として機能し、特定の時空間運転行動を通じて攻撃を起こすことができる。
- 参考スコア(独自算出の注目度): 14.08706290287121
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep reinforcement learning (DRL) is one of the most popular algorithms to
realize an autonomous driving (AD) system. The key success factor of DRL is
that it embraces the perception capability of deep neural networks which,
however, have been proven vulnerable to Trojan attacks. Trojan attacks have
been widely explored in supervised learning (SL) tasks (e.g., image
classification), but rarely in sequential decision-making tasks solved by DRL.
Hence, in this paper, we explore Trojan attacks on DRL for AD tasks. First, we
propose a spatio-temporal DRL algorithm based on the recurrent neural network
and attention mechanism to prove that capturing spatio-temporal traffic
features is the key factor to the effectiveness and safety of a DRL-augment AD
system. We then design a spatial-temporal Trojan attack on DRL policies, where
the trigger is hidden in a sequence of spatial and temporal traffic features,
rather than a single instant state used in existing Trojan on SL and DRL tasks.
With our Trojan, the adversary acts as a surrounding normal vehicle and can
trigger attacks via specific spatial-temporal driving behaviors, rather than
physical or wireless access. Through extensive experiments, we show that while
capturing spatio-temporal traffic features can improve the performance of DRL
for different AD tasks, they suffer from Trojan attacks since our designed
Trojan shows high stealthy (various spatio-temporal trigger patterns),
effective (less than 3.1\% performance variance rate and more than 98.5\%
attack success rate), and sustainable to existing advanced defenses.
- Abstract(参考訳): 深部強化学習(DRL)は、自律運転システムを実現するための最も一般的なアルゴリズムの1つである。
DRLの重要な成功要因は、トロイの木馬攻撃に対して脆弱であることが証明されたディープニューラルネットワークの知覚能力を受け入れることである。
トロイの木馬攻撃は、教師あり学習(SL)タスク(画像分類など)で広く研究されてきたが、DRLによって解決されたシーケンシャルな意思決定タスクではまれである。
そこで本稿では,ADタスクに対するDRL攻撃について検討する。
まず、再帰型ニューラルネットワークとアテンション機構に基づく時空間DRLアルゴリズムを提案し、時空間交通特徴のキャプチャがDRL拡張ADシステムの有効性と安全性の鍵となることを証明した。
次に、DRL ポリシーに対する時空間トロイの木馬攻撃を設計し、トリガーは既存の SL および DRL タスクにおけるトロイの木馬の1つの瞬間状態ではなく、空間的および時間的交通特徴の列に隠蔽される。
私たちのトロイの木馬では、敵は周囲の通常の乗り物として働き、物理的またはワイヤレスアクセスではなく、特定の空間的-時間的運転行動によって攻撃を誘発する。
広汎な実験により、時空間交通の特徴を捉えることで、異なるADタスクに対するDRLの性能を向上させることができるが、設計したトロイア攻撃は高いステルス性(様々な時空間トリガーパターン)、有効性(3.1\%以上の性能ばらつきと98.5\%以上の攻撃成功率)、そして既存の先進防衛に持続できることを示す。
関連論文リスト
- Efficient Backdoor Defense in Multimodal Contrastive Learning: A Token-Level Unlearning Method for Mitigating Threats [52.94388672185062]
本稿では,機械学習という概念を用いて,バックドアの脅威に対する効果的な防御機構を提案する。
これは、モデルがバックドアの脆弱性を迅速に学習するのを助けるために、小さな毒のサンプルを戦略的に作成することを必要とする。
バックドア・アンラーニング・プロセスでは,新しいトークン・ベースの非ラーニング・トレーニング・システムを提案する。
論文 参考訳(メタデータ) (2024-09-29T02:55:38Z) - SleeperNets: Universal Backdoor Poisoning Attacks Against Reinforcement Learning Agents [16.350898218047405]
強化学習(Reinforcement Learning, RL)は、現実世界の安全クリティカルなアプリケーションでの利用が増加している分野である。
この研究では、特にステルス性のRL(バックドア中毒)に対するトレーニングタイムアタックを調査します。
我々は、敵の目的と最適な政策を見出す目的を結びつける新しい毒殺の枠組みを定式化する。
論文 参考訳(メタデータ) (2024-05-30T23:31:25Z) - Compressing Deep Reinforcement Learning Networks with a Dynamic
Structured Pruning Method for Autonomous Driving [63.155562267383864]
深部強化学習(DRL)は複雑な自律運転シナリオにおいて顕著な成功を収めている。
DRLモデルは、必然的に高いメモリ消費と計算をもたらし、リソース限定の自動運転デバイスへの広範な展開を妨げる。
そこで本研究では,DRLモデルの非重要なニューロンを段階的に除去する,新しい動的構造化プルーニング手法を提案する。
論文 参考訳(メタデータ) (2024-02-07T09:00:30Z) - A Temporal-Pattern Backdoor Attack to Deep Reinforcement Learning [10.162123678104917]
DRLに対する新しい時間パターンバックドアアタックを提案する。
提案したバックドア攻撃を,クラウドコンピューティングにおける典型的なジョブスケジューリングタスクに検証する。
我々のバックドアの平均的クリーンデータ精度と攻撃成功率は、それぞれ97.8%と97.5%に達する。
論文 参考訳(メタデータ) (2022-05-05T12:03:09Z) - PolicyCleanse: Backdoor Detection and Mitigation in Reinforcement
Learning [19.524789009088245]
マルチエージェント競争強化学習システムにおけるバックドア検出の問題を提案する。
PolicyCleanseは、活性化されたトロイの木馬のエージェントがいくつかの時間経過後に顕著に低下した性質に基づいている。
PolicyCleanseとともに、検出されたバックドアを効果的に緩和できる機械学習ベースのアプローチも設計します。
論文 参考訳(メタデータ) (2022-02-08T02:49:09Z) - Adversarial Reinforcement Learning in Dynamic Channel Access and Power
Control [13.619849476923877]
近年,無線通信における資源割当の効率化にDRL(Deep reinforcement Learning)が用いられている。
無線干渉チャネルにおける動的チャネルアクセスと電力制御の両方を実行する複数のDRLエージェントを検討する。
本稿では,聴取フェーズを利用してユーザの総和率を著しく低下させる逆ジャミング攻撃方式を提案する。
論文 参考訳(メタデータ) (2021-05-12T17:27:21Z) - An Embarrassingly Simple Approach for Trojan Attack in Deep Neural
Networks [59.42357806777537]
トロイの木馬攻撃は、ハッカーが挿入した隠れトリガーパターンに依存する、デプロイされたディープニューラルネットワーク(DNN)を攻撃することを目的としている。
そこで本研究では,有毒データセットの再学習モデルによりトロイの木馬の挙動を注入する,従来と異なる学習自由攻撃手法を提案する。
提案したTrojanNetには,(1)小さなトリガパターンによって起動し,他の信号に対してサイレントを維持する,(2)モデルに依存しない,ほとんどのDNNに注入可能な,(3)攻撃シナリオを劇的に拡張する,(3)訓練不要のメカニズムは従来のトロイの木馬攻撃方法と比較して大規模なトレーニング作業の削減など,いくつかの優れた特性がある。
論文 参考訳(メタデータ) (2020-06-15T04:58:28Z) - Robust Deep Reinforcement Learning against Adversarial Perturbations on
State Observations [88.94162416324505]
深部強化学習(DRL)エージェントは、自然な測定誤差や対向雑音を含む観測を通して、その状態を観察する。
観測は真の状態から逸脱するので、エージェントを誤解させ、準最適行動を起こすことができる。
本研究は, 従来の手法を, 対人訓練などの分類タスクの堅牢性向上に応用することは, 多くのRLタスクには有効でないことを示す。
論文 参考訳(メタデータ) (2020-03-19T17:59:59Z) - Stop-and-Go: Exploring Backdoor Attacks on Deep Reinforcement
Learning-based Traffic Congestion Control Systems [16.01681914880077]
DRLを用いたAVコントローラのバックドア/トロイジャリングについて検討する。
悪意ある行動としては、車両の減速と加速によって停止・停止する交通波が発生することが挙げられる。
実験により、バックドアモデルが通常の動作性能を損なわないことが示された。
論文 参考訳(メタデータ) (2020-03-17T08:20:43Z) - Challenges and Countermeasures for Adversarial Attacks on Deep
Reinforcement Learning [48.49658986576776]
深層強化学習(Dep Reinforcement Learning, DRL)は、周囲の環境に適応する優れた能力のおかげで、現実世界に多くの応用がある。
その大きな利点にもかかわらず、DRLは現実のクリティカルシステムやアプリケーションでの使用を妨げている敵攻撃の影響を受けやすい。
本稿では,DRLベースのシステムにおける新たな攻撃と,これらの攻撃を防御するための潜在的対策について述べる。
論文 参考訳(メタデータ) (2020-01-27T10:53:11Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。