論文の概要: Does Physical Adversarial Example Really Matter to Autonomous Driving?
Towards System-Level Effect of Adversarial Object Evasion Attack
- arxiv url: http://arxiv.org/abs/2308.11894v1
- Date: Wed, 23 Aug 2023 03:40:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-24 15:58:30.621931
- Title: Does Physical Adversarial Example Really Matter to Autonomous Driving?
Towards System-Level Effect of Adversarial Object Evasion Attack
- Title(参考訳): 身体的逆転例は自律運転にとって本当に重要か?
対人物体侵入攻撃のシステムレベル効果に向けて
- Authors: Ningfei Wang, Yunpeng Luo, Takami Sato, Kaidi Xu, Qi Alfred Chen
- Abstract要約: 自律運転(AD)では、安全で安全な運転を実現するためには正確な認識が不可欠である。
特にADでは、身体的対向的物体回避攻撃が重篤である。
既存の文献はすべて、攻撃効果をAIコンポーネントレベルで評価するが、システムレベルでは評価しない。
我々は、ADコンテキストにおける新しいシステム駆動アタック設計であるSysAdvを提案する。
- 参考スコア(独自算出の注目度): 39.08524903081768
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In autonomous driving (AD), accurate perception is indispensable to achieving
safe and secure driving. Due to its safety-criticality, the security of AD
perception has been widely studied. Among different attacks on AD perception,
the physical adversarial object evasion attacks are especially severe. However,
we find that all existing literature only evaluates their attack effect at the
targeted AI component level but not at the system level, i.e., with the entire
system semantics and context such as the full AD pipeline. Thereby, this raises
a critical research question: can these existing researches effectively achieve
system-level attack effects (e.g., traffic rule violations) in the real-world
AD context? In this work, we conduct the first measurement study on whether and
how effectively the existing designs can lead to system-level effects,
especially for the STOP sign-evasion attacks due to their popularity and
severity. Our evaluation results show that all the representative prior works
cannot achieve any system-level effects. We observe two design limitations in
the prior works: 1) physical model-inconsistent object size distribution in
pixel sampling and 2) lack of vehicle plant model and AD system model
consideration. Then, we propose SysAdv, a novel system-driven attack design in
the AD context and our evaluation results show that the system-level effects
can be significantly improved, i.e., the violation rate increases by around
70%.
- Abstract(参考訳): 自律運転(AD)では、安全で安全な運転を実現するためには正確な認識が不可欠である。
安全臨界のため、AD知覚の安全性は広く研究されている。
AD知覚に対する様々な攻撃の中で、物理的敵の物体回避攻撃は特に深刻である。
しかし、既存の文献はすべて、攻撃効果をターゲットとするaiコンポーネントレベルでのみ評価するが、システムレベル、すなわちシステム全体のセマンティクスと、完全な広告パイプラインのようなコンテキストでは評価しない。
これらの既存の研究は、現実世界の広告コンテキストにおいて、システムレベルの攻撃効果(例えば、トラフィックルール違反)を効果的に達成できるか?
本研究は, 既存の設計がシステムレベルの効果, 特にSTOPのシグネチャ回避攻撃に対して, その人気と重大さに寄与するかどうかを, 初めて測定したものである。
評価の結果,代表的先行研究はすべて,システムレベルの効果が得られないことが判明した。
以前の作業で2つの設計上の制限を観察する。
1)ピクセルサンプリングにおける物理モデル非整合オブジェクトサイズ分布
2)車両プラントモデルとADシステムモデルが欠如している。
そこで我々は,AD文脈における新たなシステム駆動攻撃設計であるSysAdvを提案し,その評価結果から,システムレベルの効果が大幅に向上し,違反率が約70%向上することを示す。
関連論文リスト
- ControlLoc: Physical-World Hijacking Attack on Visual Perception in Autonomous Driving [30.286501966393388]
危険な運転シナリオを引き起こすために、デジタルハイジャック攻撃が提案されている。
我々は、自律運転(AD)視覚認識全体のハイジャック脆弱性を活用するために設計された、新しい物理世界の逆パッチアタックであるControlLocを導入する。
論文 参考訳(メタデータ) (2024-06-09T14:53:50Z) - SlowPerception: Physical-World Latency Attack against Visual Perception in Autonomous Driving [26.669905199110755]
視覚知覚成分の高遅延は、車両衝突などの安全リスクにつながる可能性がある。
我々は、プロジェクタベースの普遍摂動を生成することによって、AD知覚に対する最初の物理世界の遅延攻撃であるSlowPerceptionを紹介する。
当社のSlowPerceptionでは,AD認識システム間で平均2.5秒のレイテンシで,物理世界の第2レベルのレイテンシを実現しています。
論文 参考訳(メタデータ) (2024-06-09T14:30:18Z) - Physical Adversarial Attack meets Computer Vision: A Decade Survey [55.38113802311365]
本稿では,身体的敵意攻撃の概要を概観する。
本研究は,身体的敵意攻撃の性能を体系的に評価する第一歩を踏み出した。
提案する評価基準であるhiPAAは6つの視点から構成される。
論文 参考訳(メタデータ) (2022-09-30T01:59:53Z) - Invisible for both Camera and LiDAR: Security of Multi-Sensor Fusion
based Perception in Autonomous Driving Under Physical-World Attacks [62.923992740383966]
本稿では,MDFに基づくADシステムにおけるセキュリティ問題の最初の研究について述べる。
物理的に実現可能な逆3Dプリントオブジェクトを生成し、ADシステムが検出に失敗してクラッシュする。
以上の結果から,攻撃は様々なオブジェクトタイプおよびMSFに対して90%以上の成功率を達成した。
論文 参考訳(メタデータ) (2021-06-17T05:11:07Z) - End-to-end Uncertainty-based Mitigation of Adversarial Attacks to
Automated Lane Centering [12.11406399284803]
我々は,認識,計画,制御モジュール全体にわたる敵の攻撃の影響に対処するエンドツーエンドアプローチを提案する。
われわれのアプローチは、敵攻撃の影響を効果的に軽減し、元のOpenPilotよりも55%から90%改善できる。
論文 参考訳(メタデータ) (2021-02-27T22:36:32Z) - Dirty Road Can Attack: Security of Deep Learning based Automated Lane
Centering under Physical-World Attack [38.3805893581568]
本研究では,物理世界の敵対的攻撃下での最先端のディープラーニングに基づくALCシステムの安全性について検討する。
安全クリティカルな攻撃目標と、新しいドメイン固有の攻撃ベクトル、汚い道路パッチで問題を定式化する。
実世界の走行トレースから80のシナリオを用いて実運用ALCに対する攻撃を評価した。
論文 参考訳(メタデータ) (2020-09-14T19:22:39Z) - Measurement-driven Security Analysis of Imperceptible Impersonation
Attacks [54.727945432381716]
本稿では,ディープニューラルネットワークを用いた顔認識システムの実用性について検討する。
皮膚の色,性別,年齢などの要因が,特定の標的に対する攻撃を行う能力に影響を及ぼすことを示す。
また,攻撃者の顔のさまざまなポーズや視点に対して堅牢なユニバーサルアタックを構築する可能性についても検討した。
論文 参考訳(メタデータ) (2020-08-26T19:27:27Z) - Towards robust sensing for Autonomous Vehicles: An adversarial
perspective [82.83630604517249]
結果として得られる決定が摂動に対して堅牢であることは、最も重要なことです。
敵対的摂動は、意図的に環境や感覚測定の修正を施したものである。
より安全なシステムの構築とデプロイには,センサーシステムの脆弱性を慎重に評価する必要がある。
論文 参考訳(メタデータ) (2020-07-14T05:25:15Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。