論文の概要: Discovering New Shadow Patterns for Black-Box Attacks on Lane Detection of Autonomous Vehicles
- arxiv url: http://arxiv.org/abs/2409.18248v2
- Date: Sat, 14 Jun 2025 03:08:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:44.803411
- Title: Discovering New Shadow Patterns for Black-Box Attacks on Lane Detection of Autonomous Vehicles
- Title(参考訳): 自動運転車の車線検出におけるブラックボックス攻撃の新たなシャドウパターンの発見
- Authors: Pedram MohajerAnsari, Amir Salarpour, Jan de Voor, Alkim Domeke, Arkajyoti Mitra, Grace Johnson, Habeeb Olufowobi, Mohammad Hamad, Mert D. Pese,
- Abstract要約: 本稿では,自律走行車線検出システムに対する新たな物理世界攻撃を提案する。
私たちの方法は、完全に受動的で、パワーフリーで、人間の観察者にとって目立たないものです。
ユーザー調査では、攻撃のステルス性が確認され、83.6%の参加者が運転中に検出できなかった。
- 参考スコア(独自算出の注目度): 2.360491397983081
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a novel physical-world attack on autonomous vehicle (AV) lane detection systems that leverages negative shadows -- bright, lane-like patterns projected by passively redirecting sunlight through occluders. These patterns exploit intensity-based heuristics in modern lane detection (LD) algorithms, causing AVs to misclassify them as genuine lane markings. Unlike prior attacks, our method is entirely passive, power-free, and inconspicuous to human observers, enabling legal and stealthy deployment in public environments. Through simulation, physical testbed, and controlled field evaluations, we demonstrate that negative shadows can cause up to 100% off-road deviation or collision rates in specific scenarios; for example, a 20-meter shadow leads to complete off-road exits at speeds above 10 mph, while 30-meter shadows trigger consistent lane confusion and collisions. A user study confirms the attack's stealthiness, with 83.6% of participants failing to detect it during driving tasks. To mitigate this threat, we propose Luminosity Filter Pre-processing, a lightweight defense that reduces attack success by 87% through brightness normalization and selective filtering. Our findings expose a critical vulnerability in current LD systems and underscore the need for robust perception defenses against passive, real-world attacks.
- Abstract(参考訳): われわれは、自動運転車(AV)車線検出システムに対する新たな物理世界攻撃について紹介する。
これらのパターンは、現代の車線検出(LD)アルゴリズムにおける強度に基づくヒューリスティックスを利用しており、AVはそれらを真の車線マーキングと誤分類する。
従来の攻撃とは異なり、我々の手法は完全に受動的であり、パワーフリーであり、人間の観察者にとって目立たずであり、公的な環境における合法的かつステルス的な展開を可能にしている。
例えば、20mのシャドウは10mph以上の速度でオフロード出口を完了させ、30mのシャドウは一貫したレーンの混乱と衝突を引き起こす。
ユーザー調査では、攻撃のステルス性が確認され、83.6%の参加者が運転中に検出できなかった。
この脅威を軽減するために,明度正規化と選択的フィルタリングにより攻撃成功率を87%削減する軽量ディフェンスであるLuminosity Filter Pre-processingを提案する。
我々の研究は、現在のLDシステムにおいて重大な脆弱性を露呈し、受動的で現実的な攻撃に対する堅牢な認識防御の必要性を浮き彫りにしている。
関連論文リスト
- ControlLoc: Physical-World Hijacking Attack on Visual Perception in Autonomous Driving [30.286501966393388]
危険な運転シナリオを引き起こすために、デジタルハイジャック攻撃が提案されている。
我々は、自律運転(AD)視覚認識全体のハイジャック脆弱性を活用するために設計された、新しい物理世界の逆パッチアタックであるControlLocを導入する。
論文 参考訳(メタデータ) (2024-06-09T14:53:50Z) - LanEvil: Benchmarking the Robustness of Lane Detection to Environmental Illusions [61.87108000328186]
レーン検出(LD)は自律走行システムにおいて不可欠な要素であり、適応型クルーズ制御や自動車線センターなどの基本的な機能を提供している。
既存のLDベンチマークは主に、環境錯覚に対するLDモデルの堅牢性を無視し、一般的なケースを評価することに焦点を当てている。
本稿では、LDに対する環境錯覚による潜在的な脅威について検討し、LanEvilの最初の総合ベンチマークを確立する。
論文 参考訳(メタデータ) (2024-06-03T02:12:27Z) - Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - Invisible Reflections: Leveraging Infrared Laser Reflections to Target
Traffic Sign Perception [25.566091959509986]
道路標識は、速度制限や利得または停止の要件など、局所的に活発な規則を示す。
最近の研究は、標識にステッカーや投影された色のパッチを加えるなど、CAVの誤解釈を引き起こすような攻撃を実証している。
我々は、フィルタレス画像センサの感度を利用した効果的な物理世界攻撃を開発した。
論文 参考訳(メタデータ) (2024-01-07T21:22:42Z) - TPatch: A Triggered Physical Adversarial Patch [19.768494127237393]
音響信号によって引き起こされる物理的対向パッチであるTPatchを提案する。
運転者の疑念を避けるため,コンテンツベースカモフラージュ法と攻撃強化法を提案する。
論文 参考訳(メタデータ) (2023-12-30T06:06:01Z) - Shadows Aren't So Dangerous After All: A Fast and Robust Defense Against
Shadow-Based Adversarial Attacks [2.4254101826561842]
本稿では,道路標識認識の文脈において,シャドーアタックを防御する堅牢で高速で汎用的な手法を提案する。
我々は、そのシャドウ攻撃に対する堅牢性を実証的に示し、類似性を$varepsilon$ベース攻撃で示すために問題を再構築する。
論文 参考訳(メタデータ) (2022-08-18T00:19:01Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - Physical Attack on Monocular Depth Estimation with Optimal Adversarial
Patches [18.58673451901394]
我々は学習に基づく単眼深度推定(MDE)に対する攻撃を開発する。
我々は,攻撃のステルス性と有効性を,オブジェクト指向の対角設計,感度領域の局所化,自然スタイルのカモフラージュとバランスさせる。
実験結果から,本手法は,異なる対象オブジェクトやモデルに対して,ステルス性,有効,堅牢な逆パッチを生成できることが示唆された。
論文 参考訳(メタデータ) (2022-07-11T08:59:09Z) - A Hybrid Defense Method against Adversarial Attacks on Traffic Sign
Classifiers in Autonomous Vehicles [4.585587646404074]
敵対的攻撃は、ディープニューラルネットワーク(DNN)モデルに、自動運転車(AV)の誤った出力ラベルを予測させる。
本研究では,ハイブリッドディフェンス方式を用いたAV用レジリエントトラフィックサイン分類器を開発した。
本手法は, 攻撃シナリオの平均交通標識分類精度が99%, 攻撃シナリオの平均交通標識分類精度が88%であることを示す。
論文 参考訳(メタデータ) (2022-04-25T02:13:31Z) - Shadows can be Dangerous: Stealthy and Effective Physical-world
Adversarial Attack by Natural Phenomenon [79.33449311057088]
我々は、非常に一般的な自然現象であるシャドーによって摂動が生じる新しい種類の光対角運動例について研究する。
我々は,シミュレーション環境と実環境の両方において,この新たな攻撃の有効性を広く評価した。
論文 参考訳(メタデータ) (2022-03-08T02:40:18Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - Model-Agnostic Defense for Lane Detection against Adversarial Attack [0.0]
対向路パッチに関する最近の研究は、任意の形態のレーンラインの知覚をうまく誘導している。
自動運転システムが誤認される前に、このような脅威を捕捉できるモジュラーレーン検証システムを提案する。
本実験では,単純な畳み込みニューラルネットワーク(cnn)を用いてシステムを実装することで,レーン検出モデルに対する幅広い攻撃を防御できることを示す。
論文 参考訳(メタデータ) (2021-03-01T00:05:50Z) - Temporally-Transferable Perturbations: Efficient, One-Shot Adversarial
Attacks for Online Visual Object Trackers [81.90113217334424]
本研究では, オブジェクトテンプレート画像からのみ, 一時移動可能な対人的摂動を生成するフレームワークを提案する。
この摂動はあらゆる検索画像に追加され、事実上何のコストもかからないが、それでもトラッカーを騙すのに成功している。
論文 参考訳(メタデータ) (2020-12-30T15:05:53Z) - Dirty Road Can Attack: Security of Deep Learning based Automated Lane
Centering under Physical-World Attack [38.3805893581568]
本研究では,物理世界の敵対的攻撃下での最先端のディープラーニングに基づくALCシステムの安全性について検討する。
安全クリティカルな攻撃目標と、新しいドメイン固有の攻撃ベクトル、汚い道路パッチで問題を定式化する。
実世界の走行トレースから80のシナリオを用いて実運用ALCに対する攻撃を評価した。
論文 参考訳(メタデータ) (2020-09-14T19:22:39Z) - Physically Realizable Adversarial Examples for LiDAR Object Detection [72.0017682322147]
本稿では,LiDAR検出器を騙すために,汎用な3次元対向物体を生成する手法を提案する。
特に,LiDAR検出器から車両を完全に隠蔽するために,車両の屋根上に対向物体を配置し,その成功率は80%であることを示した。
これは、限られたトレーニングデータから見知らぬ条件下での、より安全な自動運転への一歩だ。
論文 参考訳(メタデータ) (2020-04-01T16:11:04Z) - Cooling-Shrinking Attack: Blinding the Tracker with Imperceptible Noises [87.53808756910452]
The method is proposed to deceive-of-the-the-art SiameseRPN-based tracker。
本手法は転送性に優れ,DaSiamRPN,DaSiamRPN-UpdateNet,DiMPなどの他のトップパフォーマンストラッカーを騙すことができる。
論文 参考訳(メタデータ) (2020-03-21T07:13:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。