論文の概要: Dirty Road Can Attack: Security of Deep Learning based Automated Lane
Centering under Physical-World Attack
- arxiv url: http://arxiv.org/abs/2009.06701v2
- Date: Sun, 13 Jun 2021 22:38:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 12:07:48.435859
- Title: Dirty Road Can Attack: Security of Deep Learning based Automated Lane
Centering under Physical-World Attack
- Title(参考訳): dirty road can attack: 物理世界攻撃を中心としたディープラーニングによる自動レーンのセキュリティ
- Authors: Takami Sato, Junjie Shen, Ningfei Wang, Yunhan Jack Jia, Xue Lin, Qi
Alfred Chen
- Abstract要約: 本研究では,物理世界の敵対的攻撃下での最先端のディープラーニングに基づくALCシステムの安全性について検討する。
安全クリティカルな攻撃目標と、新しいドメイン固有の攻撃ベクトル、汚い道路パッチで問題を定式化する。
実世界の走行トレースから80のシナリオを用いて実運用ALCに対する攻撃を評価した。
- 参考スコア(独自算出の注目度): 38.3805893581568
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automated Lane Centering (ALC) systems are convenient and widely deployed
today, but also highly security and safety critical. In this work, we are the
first to systematically study the security of state-of-the-art deep learning
based ALC systems in their designed operational domains under physical-world
adversarial attacks. We formulate the problem with a safety-critical attack
goal, and a novel and domain-specific attack vector: dirty road patches. To
systematically generate the attack, we adopt an optimization-based approach and
overcome domain-specific design challenges such as camera frame
inter-dependencies due to attack-influenced vehicle control, and the lack of
objective function design for lane detection models.
We evaluate our attack on a production ALC using 80 scenarios from real-world
driving traces. The results show that our attack is highly effective with over
97.5% success rates and less than 0.903 sec average success time, which is
substantially lower than the average driver reaction time. This attack is also
found (1) robust to various real-world factors such as lighting conditions and
view angles, (2) general to different model designs, and (3) stealthy from the
driver's view. To understand the safety impacts, we conduct experiments using
software-in-the-loop simulation and attack trace injection in a real vehicle.
The results show that our attack can cause a 100% collision rate in different
scenarios, including when tested with common safety features such as automatic
emergency braking. We also evaluate and discuss defenses.
- Abstract(参考訳): 自動レーンセンター(Almated Lane Centering, ALC)システムは、今日では便利であり、広く展開されている。
本研究は,最先端の深層学習システムであるalcシステムの物理世界の敵対的攻撃下で設計した運用領域におけるセキュリティを体系的に研究した最初の例である。
安全クリティカルな攻撃目標と、新しいドメイン固有の攻撃ベクトル、汚い道路パッチで問題を定式化する。
攻撃を系統的に生成するために,我々は最適化に基づくアプローチを採用し,攻撃の影響のある車両制御によるカメラフレーム間の依存性や車線検出モデルに対する目的関数設計の欠如など,ドメイン固有の設計課題を克服する。
実世界の走行トレースから80のシナリオを用いて実運用ALCに対する攻撃を評価する。
その結果、攻撃は97.5%以上の成功率と0.903秒未満で非常に効果的であり、平均的なドライバーの反応時間よりもかなり低いことがわかった。
この攻撃はまた、(1)照明条件や視角などの現実世界の様々な要因に頑健で、(2)異なるモデル設計に一般的で、(3)運転者の視界からステルス性を示す。
安全への影響を理解するために,実車におけるソフトウェア・イン・ザ・ループシミュレーションとアタックトレースインジェクションを用いて実験を行う。
以上の結果から,自動緊急ブレーキなどの安全機能のテストなど,様々なシナリオにおいて,攻撃が100%衝突する可能性が示唆された。
我々はまた、防衛を評価し、議論する。
関連論文リスト
- Runtime Stealthy Perception Attacks against DNN-based Adaptive Cruise
Control Systems [8.990878450631596]
本稿では,実行時認識攻撃下での深層ニューラルネットワークを用いたACCシステムのセキュリティ評価を行う。
攻撃を誘発する最も重要な時間を選択するための文脈認識戦略を提案する。
実車,実車,現実的なシミュレーションプラットフォームを用いて,提案攻撃の有効性を評価する。
論文 参考訳(メタデータ) (2023-07-18T03:12:03Z) - Reinforcement Learning based Cyberattack Model for Adaptive Traffic
Signal Controller in Connected Transportation Systems [61.39400591328625]
接続輸送システムにおいて、適応交通信号制御装置(ATSC)は、車両から受信したリアルタイム車両軌跡データを利用して、グリーンタイムを規制する。
この無線接続されたATSCはサイバー攻撃面を増やし、その脆弱性を様々なサイバー攻撃モードに拡大する。
そのようなモードの1つは、攻撃者がネットワーク内で偽の車両を作成する「シビル」攻撃である。
RLエージェントは、シビル車噴射の最適速度を学習し、アプローチの混雑を生じさせるように訓練される
論文 参考訳(メタデータ) (2022-10-31T20:12:17Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - Invisible for both Camera and LiDAR: Security of Multi-Sensor Fusion
based Perception in Autonomous Driving Under Physical-World Attacks [62.923992740383966]
本稿では,MDFに基づくADシステムにおけるセキュリティ問題の最初の研究について述べる。
物理的に実現可能な逆3Dプリントオブジェクトを生成し、ADシステムが検出に失敗してクラッシュする。
以上の結果から,攻撃は様々なオブジェクトタイプおよびMSFに対して90%以上の成功率を達成した。
論文 参考訳(メタデータ) (2021-06-17T05:11:07Z) - End-to-end Uncertainty-based Mitigation of Adversarial Attacks to
Automated Lane Centering [12.11406399284803]
我々は,認識,計画,制御モジュール全体にわたる敵の攻撃の影響に対処するエンドツーエンドアプローチを提案する。
われわれのアプローチは、敵攻撃の影響を効果的に軽減し、元のOpenPilotよりも55%から90%改善できる。
論文 参考訳(メタデータ) (2021-02-27T22:36:32Z) - Targeted Physical-World Attention Attack on Deep Learning Models in Road
Sign Recognition [79.50450766097686]
本稿では,現実の道路標識攻撃に対するTAA手法を提案する。
実験の結果,TAA法は攻撃成功率(約10%)を向上し,RP2法と比較して摂動損失(約4分の1)を減少させることがわかった。
論文 参考訳(メタデータ) (2020-10-09T02:31:34Z) - Stop-and-Go: Exploring Backdoor Attacks on Deep Reinforcement
Learning-based Traffic Congestion Control Systems [16.01681914880077]
DRLを用いたAVコントローラのバックドア/トロイジャリングについて検討する。
悪意ある行動としては、車両の減速と加速によって停止・停止する交通波が発生することが挙げられる。
実験により、バックドアモデルが通常の動作性能を損なわないことが示された。
論文 参考訳(メタデータ) (2020-03-17T08:20:43Z) - Security of Deep Learning based Lane Keeping System under Physical-World
Adversarial Attack [38.3805893581568]
Lane-Keeping Assistance System (LKAS) は現在、便利で広く利用可能であるが、非常に安全性と安全性が重要である。
本研究では,実世界のDNNベースのLKASeを攻撃するための最初の体系的アプローチを設計し,実装する。
汚い道路パッチを,実用性とステルスネスのための新規かつドメイン固有の脅威モデルとして同定する。
論文 参考訳(メタデータ) (2020-03-03T20:35:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。