論文の概要: ML-driven Malware that Targets AV Safety
- arxiv url: http://arxiv.org/abs/2004.13004v2
- Date: Sat, 13 Jun 2020 01:42:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 03:25:22.354448
- Title: ML-driven Malware that Targets AV Safety
- Title(参考訳): av安全性をターゲットとするml駆動マルウェア
- Authors: Saurabh Jha, Shengkun Cui, Subho S. Banerjee, Timothy Tsai, Zbigniew
Kalbarczyk, Ravi Iyer
- Abstract要約: 我々は、攻撃モデル、スマートマルウェアの形で攻撃を展開する方法、およびプロダクショングレードの自動運転ソフトウェアに対するその影響を実験的に評価する。
攻撃開始までの時間間隔を決定することは、高い成功率で安全上の危険を引き起こすために極めて重要である。
例えば、スマートマルウェアは、ランダムな攻撃よりも33倍の緊急ブレーキを引き起こし、運転シミュレーションの52.6%で事故が発生した。
- 参考スコア(独自算出の注目度): 5.675697880379048
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ensuring the safety of autonomous vehicles (AVs) is critical for their mass
deployment and public adoption. However, security attacks that violate safety
constraints and cause accidents are a significant deterrent to achieving public
trust in AVs, and that hinders a vendor's ability to deploy AVs. Creating a
security hazard that results in a severe safety compromise (for example, an
accident) is compelling from an attacker's perspective. In this paper, we
introduce an attack model, a method to deploy the attack in the form of smart
malware, and an experimental evaluation of its impact on production-grade
autonomous driving software. We find that determining the time interval during
which to launch the attack is{ critically} important for causing safety hazards
(such as collisions) with a high degree of success. For example, the smart
malware caused 33X more forced emergency braking than random attacks did, and
accidents in 52.6% of the driving simulations.
- Abstract(参考訳): 自動運転車(AV)の安全性を確保することは、その大量展開と公的な採用にとって重要である。
しかしながら、安全上の制約に違反し、事故を引き起こすセキュリティ攻撃は、AVに対する公衆の信頼を達成し、AVをデプロイするベンダーの能力を妨げている。
深刻な安全上の妥協(例えば事故)をもたらすセキュリティハザードを作成することは、攻撃者の視点からは説得力がある。
本稿では,スマートマルウェアの形で攻撃を展開する手法である攻撃モデルと,その生産段階の自動運転ソフトウェアに対する影響を実験的に評価する。
我々は、攻撃の開始までの時間間隔を決定することは、高い成功率で安全性の危険(衝突など)を引き起こすのに重要であることを見出した。
例えば、スマートマルウェアは、ランダムな攻撃よりも33倍の緊急ブレーキを引き起こし、運転シミュレーションの52.6%で事故が発生した。
関連論文リスト
- A Counterfactual Safety Margin Perspective on the Scoring of Autonomous
Vehicles' Riskiness [52.27309191283943]
本稿では,異なるAVの行動のリスクを評価するためのデータ駆動型フレームワークを提案する。
本稿では,衝突を引き起こす可能性のある名目行動から最小限の偏差を示す,対実的安全マージンの概念を提案する。
論文 参考訳(メタデータ) (2023-08-02T09:48:08Z) - Safety Margins for Reinforcement Learning [74.13100479426424]
安全マージンを生成するためにプロキシ臨界度メトリクスをどのように活用するかを示す。
Atari 環境での APE-X と A3C からの学習方針に対するアプローチを評価する。
論文 参考訳(メタデータ) (2023-07-25T16:49:54Z) - Runtime Stealthy Perception Attacks against DNN-based Adaptive Cruise
Control Systems [8.990878450631596]
本稿では,実行時認識攻撃下での深層ニューラルネットワークを用いたACCシステムのセキュリティ評価を行う。
攻撃を誘発する最も重要な時間を選択するための文脈認識戦略を提案する。
実車,実車,現実的なシミュレーションプラットフォームを用いて,提案攻撃の有効性を評価する。
論文 参考訳(メタデータ) (2023-07-18T03:12:03Z) - Explainable and Safe Reinforcement Learning for Autonomous Air Mobility [13.038383326602764]
本稿では,自律飛行におけるコンフリクト解決を支援するために,新しい深部強化学習(DRL)コントローラを提案する。
1) 結合したQ値学習モデルを安全意識と効率性(目標に到達)に分解する,完全に説明可能なDRLフレームワークを設計する。
また,安全指向攻撃と効率指向攻撃の両方を強制できる敵攻撃戦略を提案する。
論文 参考訳(メタデータ) (2022-11-24T08:47:06Z) - AdvDO: Realistic Adversarial Attacks for Trajectory Prediction [87.96767885419423]
軌道予測は、自動運転車が正しく安全な運転行動を計画するために不可欠である。
我々は,現実的な対向軌道を生成するために,最適化に基づく対向攻撃フレームワークを考案する。
私たちの攻撃は、AVが道路を走り去るか、シミュレーション中に他の車両に衝突する可能性がある。
論文 参考訳(メタデータ) (2022-09-19T03:34:59Z) - Watch Out for the Safety-Threatening Actors: Proactively Mitigating
Safety Hazards [5.898210877584262]
本稿では,AVの安全性に影響を及ぼす道路上の各アクターの重要性を推定するために,反実的推論を用いた安全脅威指標(STI)を提案する。
提案手法は, 希少な危険シナリオにおける最先端のAVエージェントの事故発生率を70%以上削減する。
論文 参考訳(メタデータ) (2022-06-02T05:56:25Z) - Attacks and Faults Injection in Self-Driving Agents on the Carla
Simulator -- Experience Report [1.933681537640272]
運転シミュレーター内を走行する自動運転エージェントにおける敵攻撃とソフトウェア障害の注入について報告する。
訓練されたエージェントに敵の攻撃や障害が注入された場合、誤った判断を下し、安全性を著しく損なう可能性があることを示す。
論文 参考訳(メタデータ) (2022-02-25T21:46:12Z) - Adversarial Visual Robustness by Causal Intervention [56.766342028800445]
敵の訓練は、敵の例に対する事実上最も有望な防御である。
しかし、その受動性は必然的に未知の攻撃者への免疫を妨げる。
我々は、敵対的脆弱性の因果的視点を提供する: 原因は、学習に普遍的に存在する共同創設者である。
論文 参考訳(メタデータ) (2021-06-17T14:23:54Z) - Invisible for both Camera and LiDAR: Security of Multi-Sensor Fusion
based Perception in Autonomous Driving Under Physical-World Attacks [62.923992740383966]
本稿では,MDFに基づくADシステムにおけるセキュリティ問題の最初の研究について述べる。
物理的に実現可能な逆3Dプリントオブジェクトを生成し、ADシステムが検出に失敗してクラッシュする。
以上の結果から,攻撃は様々なオブジェクトタイプおよびMSFに対して90%以上の成功率を達成した。
論文 参考訳(メタデータ) (2021-06-17T05:11:07Z) - Adversarial defense for automatic speaker verification by cascaded
self-supervised learning models [101.42920161993455]
ますます悪意のある攻撃者は、自動話者検証(ASV)システムで敵攻撃を仕掛けようとする。
本稿では,逐次的自己教師付き学習モデルに基づく標準的かつ攻撃非依存な手法を提案する。
実験により, 本手法は効果的な防御性能を実現し, 敵攻撃に対抗できることを示した。
論文 参考訳(メタデータ) (2021-02-14T01:56:43Z) - Dirty Road Can Attack: Security of Deep Learning based Automated Lane
Centering under Physical-World Attack [38.3805893581568]
本研究では,物理世界の敵対的攻撃下での最先端のディープラーニングに基づくALCシステムの安全性について検討する。
安全クリティカルな攻撃目標と、新しいドメイン固有の攻撃ベクトル、汚い道路パッチで問題を定式化する。
実世界の走行トレースから80のシナリオを用いて実運用ALCに対する攻撃を評価した。
論文 参考訳(メタデータ) (2020-09-14T19:22:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。