論文の概要: Deep Learning-Based Autonomous Driving Systems: A Survey of Attacks and
Defenses
- arxiv url: http://arxiv.org/abs/2104.01789v1
- Date: Mon, 5 Apr 2021 06:31:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-06 14:47:24.313124
- Title: Deep Learning-Based Autonomous Driving Systems: A Survey of Attacks and
Defenses
- Title(参考訳): ディープラーニングに基づく自律運転システム:攻撃と防御に関する調査
- Authors: Yao Deng, Tiehua Zhang, Guannan Lou, Xi Zheng, Jiong Jin, Qing-Long
Han
- Abstract要約: この調査は、自動運転システムを危うくする可能性のあるさまざまな攻撃の詳細な分析を提供する。
さまざまなディープラーニングモデルに対する敵意攻撃と、物理的およびサイバー的コンテキストにおける攻撃をカバーする。
深層学習に基づく自動運転の安全性を向上させるために、いくつかの有望な研究方向が提案されている。
- 参考スコア(独自算出の注目度): 13.161104978510943
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The rapid development of artificial intelligence, especially deep learning
technology, has advanced autonomous driving systems (ADSs) by providing precise
control decisions to counterpart almost any driving event, spanning from
anti-fatigue safe driving to intelligent route planning. However, ADSs are
still plagued by increasing threats from different attacks, which could be
categorized into physical attacks, cyberattacks and learning-based adversarial
attacks. Inevitably, the safety and security of deep learning-based autonomous
driving are severely challenged by these attacks, from which the
countermeasures should be analyzed and studied comprehensively to mitigate all
potential risks. This survey provides a thorough analysis of different attacks
that may jeopardize ADSs, as well as the corresponding state-of-the-art defense
mechanisms. The analysis is unrolled by taking an in-depth overview of each
step in the ADS workflow, covering adversarial attacks for various deep
learning models and attacks in both physical and cyber context. Furthermore,
some promising research directions are suggested in order to improve deep
learning-based autonomous driving safety, including model robustness training,
model testing and verification, and anomaly detection based on cloud/edge
servers.
- Abstract(参考訳): 人工知能の急速な発展、特にディープラーニング技術は、ほぼあらゆる運転イベントに対して正確な制御決定を提供することで、高度な自律運転システム(ADS)を提供している。
しかし、ADSは依然として、物理的な攻撃、サイバー攻撃、学習ベースの敵攻撃に分類できる様々な攻撃による脅威の増加に悩まされている。
必然的に、深層学習に基づく自動運転の安全性と安全性は、すべての潜在的なリスクを軽減すべく、対策を解析し、総合的に研究すべきであるこれらの攻撃によって厳しく挑戦されている。
この調査は、ADSを危険にさらす可能性のあるさまざまな攻撃と、それに対応する最先端の防御メカニズムを徹底的に分析する。
この分析は、ADSワークフローの各ステップを詳細に概観し、さまざまなディープラーニングモデルに対する敵攻撃と、物理的およびサイバー両方のコンテキストにおける攻撃をカバーしている。
さらに、モデルロバストネストレーニング、モデルテストと検証、クラウド/エッジサーバに基づく異常検出など、ディープラーニングベースの自動運転安全性を改善するために、有望な研究方向が提案されている。
関連論文リスト
- A Survey on Adversarial Robustness of LiDAR-based Machine Learning Perception in Autonomous Vehicles [0.0]
この調査は、AML(Adversarial Machine Learning)と自律システムの交差点に焦点を当てている。
我々は、脅威の風景を包括的に探求し、センサーに対するサイバー攻撃と敵の摂動を包含する。
本稿では、敵の脅威に対する自律運転システムの安全性確保における課題と今後の課題を簡潔に概説する。
論文 参考訳(メタデータ) (2024-11-21T01:26:52Z) - Navigating Threats: A Survey of Physical Adversarial Attacks on LiDAR Perception Systems in Autonomous Vehicles [4.4538254463902645]
LiDARシステムは敵の攻撃に弱いため、自動運転車の安全性と堅牢性に大きな課題が生じる。
本調査では,LiDARに基づく知覚システムを対象とした身体的敵攻撃に関する研究状況について概説する。
我々は、LiDARベースのシステムに対する既存の攻撃において、重要な課題を特定し、ギャップを浮き彫りにする。
論文 参考訳(メタデータ) (2024-09-30T15:50:36Z) - Attack End-to-End Autonomous Driving through Module-Wise Noise [4.281151553151594]
本稿では,モジュラー・エンド・エンド・エンド・エンドの自律運転モデルに関する総合的対角セキュリティ研究を行う。
モデル推論プロセスにおける潜在的な脆弱性を徹底的に検討し、モジュールワイドノイズ注入によるユニバーサルアタックスキームを設計する。
本研究では,フルスタック自動運転モデルを用いた大規模実験を行い,攻撃手法が従来の攻撃方法より優れていることを示す。
論文 参考訳(メタデータ) (2024-09-12T02:19:16Z) - Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - CANEDERLI: On The Impact of Adversarial Training and Transferability on CAN Intrusion Detection Systems [17.351539765989433]
車両と外部ネットワークの統合が拡大し、コントロールエリアネットワーク(CAN)の内部バスをターゲットにした攻撃が急増した。
対策として,様々な侵入検知システム(IDS)が文献で提案されている。
これらのシステムのほとんどは、機械学習(ML)やディープラーニング(DL)モデルのような、データ駆動のアプローチに依存しています。
本稿では,CANベースのIDSをセキュアにするための新しいフレームワークであるCANEDERLIを提案する。
論文 参考訳(メタデータ) (2024-04-06T14:54:11Z) - Automating Privilege Escalation with Deep Reinforcement Learning [71.87228372303453]
本研究では,エージェントの訓練に深層強化学習を用いることで,悪意あるアクターの潜在的な脅威を実証する。
本稿では,最先端の強化学習アルゴリズムを用いて,局所的な特権エスカレーションを行うエージェントを提案する。
我々のエージェントは、実際の攻撃センサーデータを生成し、侵入検知システムの訓練と評価に利用できる。
論文 参考訳(メタデータ) (2021-10-04T12:20:46Z) - Evaluating Adversarial Attacks on Driving Safety in Vision-Based
Autonomous Vehicles [21.894836150974093]
近年、多くのディープラーニングモデルが自動運転に採用されている。
近年の研究では、敵対的攻撃がディープラーニングに基づく3次元物体検出モデルの検出精度を著しく低下させることが示されている。
論文 参考訳(メタデータ) (2021-08-06T04:52:09Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Adversarial defense for automatic speaker verification by cascaded
self-supervised learning models [101.42920161993455]
ますます悪意のある攻撃者は、自動話者検証(ASV)システムで敵攻撃を仕掛けようとする。
本稿では,逐次的自己教師付き学習モデルに基づく標準的かつ攻撃非依存な手法を提案する。
実験により, 本手法は効果的な防御性能を実現し, 敵攻撃に対抗できることを示した。
論文 参考訳(メタデータ) (2021-02-14T01:56:43Z) - Adversarial Machine Learning Attacks and Defense Methods in the Cyber
Security Domain [58.30296637276011]
本稿では,機械学習技術に基づくセキュリティソリューションに対する敵攻撃に関する最新の研究を要約する。
サイバーセキュリティドメインでエンドツーエンドの敵攻撃を実装するという、ユニークな課題を議論するのは、これが初めてである。
論文 参考訳(メタデータ) (2020-07-05T18:22:40Z) - Enhanced Adversarial Strategically-Timed Attacks against Deep
Reinforcement Learning [91.13113161754022]
本稿では,DRLに基づくナビゲーションシステムに対して,選択した時間フレーム上の物理ノイズパターンを妨害することにより,タイミングに基づく逆方向戦略を導入する。
実験結果から, 対向タイミング攻撃は性能低下を引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2020-02-20T21:39:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。