論文の概要: Dirty Road Can Attack: Security of Deep Learning based Automated Lane
Centering under Physical-World Attack
- arxiv url: http://arxiv.org/abs/2009.06701v2
- Date: Sun, 13 Jun 2021 22:38:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 12:07:48.435859
- Title: Dirty Road Can Attack: Security of Deep Learning based Automated Lane
Centering under Physical-World Attack
- Title(参考訳): dirty road can attack: 物理世界攻撃を中心としたディープラーニングによる自動レーンのセキュリティ
- Authors: Takami Sato, Junjie Shen, Ningfei Wang, Yunhan Jack Jia, Xue Lin, Qi
Alfred Chen
- Abstract要約: 本研究では,物理世界の敵対的攻撃下での最先端のディープラーニングに基づくALCシステムの安全性について検討する。
安全クリティカルな攻撃目標と、新しいドメイン固有の攻撃ベクトル、汚い道路パッチで問題を定式化する。
実世界の走行トレースから80のシナリオを用いて実運用ALCに対する攻撃を評価した。
- 参考スコア(独自算出の注目度): 38.3805893581568
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automated Lane Centering (ALC) systems are convenient and widely deployed
today, but also highly security and safety critical. In this work, we are the
first to systematically study the security of state-of-the-art deep learning
based ALC systems in their designed operational domains under physical-world
adversarial attacks. We formulate the problem with a safety-critical attack
goal, and a novel and domain-specific attack vector: dirty road patches. To
systematically generate the attack, we adopt an optimization-based approach and
overcome domain-specific design challenges such as camera frame
inter-dependencies due to attack-influenced vehicle control, and the lack of
objective function design for lane detection models.
We evaluate our attack on a production ALC using 80 scenarios from real-world
driving traces. The results show that our attack is highly effective with over
97.5% success rates and less than 0.903 sec average success time, which is
substantially lower than the average driver reaction time. This attack is also
found (1) robust to various real-world factors such as lighting conditions and
view angles, (2) general to different model designs, and (3) stealthy from the
driver's view. To understand the safety impacts, we conduct experiments using
software-in-the-loop simulation and attack trace injection in a real vehicle.
The results show that our attack can cause a 100% collision rate in different
scenarios, including when tested with common safety features such as automatic
emergency braking. We also evaluate and discuss defenses.
- Abstract(参考訳): 自動レーンセンター(Almated Lane Centering, ALC)システムは、今日では便利であり、広く展開されている。
本研究は,最先端の深層学習システムであるalcシステムの物理世界の敵対的攻撃下で設計した運用領域におけるセキュリティを体系的に研究した最初の例である。
安全クリティカルな攻撃目標と、新しいドメイン固有の攻撃ベクトル、汚い道路パッチで問題を定式化する。
攻撃を系統的に生成するために,我々は最適化に基づくアプローチを採用し,攻撃の影響のある車両制御によるカメラフレーム間の依存性や車線検出モデルに対する目的関数設計の欠如など,ドメイン固有の設計課題を克服する。
実世界の走行トレースから80のシナリオを用いて実運用ALCに対する攻撃を評価する。
その結果、攻撃は97.5%以上の成功率と0.903秒未満で非常に効果的であり、平均的なドライバーの反応時間よりもかなり低いことがわかった。
この攻撃はまた、(1)照明条件や視角などの現実世界の様々な要因に頑健で、(2)異なるモデル設計に一般的で、(3)運転者の視界からステルス性を示す。
安全への影響を理解するために,実車におけるソフトウェア・イン・ザ・ループシミュレーションとアタックトレースインジェクションを用いて実験を行う。
以上の結果から,自動緊急ブレーキなどの安全機能のテストなど,様々なシナリオにおいて,攻撃が100%衝突する可能性が示唆された。
我々はまた、防衛を評価し、議論する。
関連論文リスト
- Discovering New Shadow Patterns for Black-Box Attacks on Lane Detection of Autonomous Vehicles [2.5539742994571037]
本稿では,実世界逆転例(AE)を創出するための新しいアプローチを提案する。
負の影: 戦略的に日光を遮り、人工車線のようなパターンを放つ道路上の光の偽りのパターン。
20メートルの負の影を使って、10mph以上の速度で100%違反率で車両をオフロードに誘導することができる。
衝突を引き起こすような他の攻撃シナリオは、少なくとも30mの負の影で実行でき、60-100%の成功率を達成することができる。
論文 参考訳(メタデータ) (2024-09-26T19:43:52Z) - Physical Backdoor Attack can Jeopardize Driving with Vision-Large-Language Models [53.701148276912406]
Vision-Large-Language-models (VLMs) は自動運転において大きな応用可能性を持っている。
BadVLMDriverは、物理的オブジェクトを使用して実際に起動できる自動運転のためのVLMに対する最初のバックドア攻撃である。
BadVLMDriverは、赤い風船を持った歩行者に突如、加速を誘導する攻撃の成功率を92%達成する。
論文 参考訳(メタデータ) (2024-04-19T14:40:38Z) - Runtime Stealthy Perception Attacks against DNN-based Adaptive Cruise Control Systems [8.561553195784017]
本稿では,実行時認識攻撃下での深層ニューラルネットワークを用いたACCシステムのセキュリティ評価を行う。
攻撃を誘発する最も重要な時間を選択するための文脈認識戦略を提案する。
提案攻撃の有効性を,実車,公用運転データセット,現実的なシミュレーションプラットフォームを用いて評価した。
論文 参考訳(メタデータ) (2023-07-18T03:12:03Z) - When Authentication Is Not Enough: On the Security of Behavioral-Based Driver Authentication Systems [53.2306792009435]
我々はランダムフォレストとリカレントニューラルネットワークアーキテクチャに基づく2つの軽量ドライバ認証システムを開発した。
我々は,SMARTCANとGANCANという2つの新しいエスケープアタックを開発することで,これらのシステムに対する攻撃を最初に提案する。
コントリビューションを通じて、これらのシステムを安全に採用する実践者を支援し、車の盗難を軽減し、ドライバーのセキュリティを高める。
論文 参考訳(メタデータ) (2023-06-09T14:33:26Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - Invisible for both Camera and LiDAR: Security of Multi-Sensor Fusion
based Perception in Autonomous Driving Under Physical-World Attacks [62.923992740383966]
本稿では,MDFに基づくADシステムにおけるセキュリティ問題の最初の研究について述べる。
物理的に実現可能な逆3Dプリントオブジェクトを生成し、ADシステムが検出に失敗してクラッシュする。
以上の結果から,攻撃は様々なオブジェクトタイプおよびMSFに対して90%以上の成功率を達成した。
論文 参考訳(メタデータ) (2021-06-17T05:11:07Z) - End-to-end Uncertainty-based Mitigation of Adversarial Attacks to
Automated Lane Centering [12.11406399284803]
我々は,認識,計画,制御モジュール全体にわたる敵の攻撃の影響に対処するエンドツーエンドアプローチを提案する。
われわれのアプローチは、敵攻撃の影響を効果的に軽減し、元のOpenPilotよりも55%から90%改善できる。
論文 参考訳(メタデータ) (2021-02-27T22:36:32Z) - Targeted Physical-World Attention Attack on Deep Learning Models in Road
Sign Recognition [79.50450766097686]
本稿では,現実の道路標識攻撃に対するTAA手法を提案する。
実験の結果,TAA法は攻撃成功率(約10%)を向上し,RP2法と比較して摂動損失(約4分の1)を減少させることがわかった。
論文 参考訳(メタデータ) (2020-10-09T02:31:34Z) - Stop-and-Go: Exploring Backdoor Attacks on Deep Reinforcement
Learning-based Traffic Congestion Control Systems [16.01681914880077]
DRLを用いたAVコントローラのバックドア/トロイジャリングについて検討する。
悪意ある行動としては、車両の減速と加速によって停止・停止する交通波が発生することが挙げられる。
実験により、バックドアモデルが通常の動作性能を損なわないことが示された。
論文 参考訳(メタデータ) (2020-03-17T08:20:43Z) - Security of Deep Learning based Lane Keeping System under Physical-World
Adversarial Attack [38.3805893581568]
Lane-Keeping Assistance System (LKAS) は現在、便利で広く利用可能であるが、非常に安全性と安全性が重要である。
本研究では,実世界のDNNベースのLKASeを攻撃するための最初の体系的アプローチを設計し,実装する。
汚い道路パッチを,実用性とステルスネスのための新規かつドメイン固有の脅威モデルとして同定する。
論文 参考訳(メタデータ) (2020-03-03T20:35:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。