論文の概要: Invisible Triggers, Visible Threats! Road-Style Adversarial Creation Attack for Visual 3D Detection in Autonomous Driving
- arxiv url: http://arxiv.org/abs/2511.08015v1
- Date: Wed, 12 Nov 2025 01:34:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.599171
- Title: Invisible Triggers, Visible Threats! Road-Style Adversarial Creation Attack for Visual 3D Detection in Autonomous Driving
- Title(参考訳): 視覚的トリガー, 視覚的脅威! 自律運転における視覚的3次元検出のための道路型逆方向生成攻撃
- Authors: Jian Wang, Lijun He, Yixing Yong, Haixia Bi, Fan Li,
- Abstract要約: 自律走行シナリオにおける現実的な敵攻撃について検討する。
本稿では,道路スタイルの多様なポスターを作成するためのAdvRoadを提案する。
我々は,攻撃効果を最大化するために,ロード・スタイル・アドバーサリー・ジェネレーションとシナリオ・アソシエイト・アダプティブ・アダプティブと呼ばれる2段階のアプローチを採用する。
- 参考スコア(独自算出の注目度): 8.363511344553562
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern autonomous driving (AD) systems leverage 3D object detection to perceive foreground objects in 3D environments for subsequent prediction and planning. Visual 3D detection based on RGB cameras provides a cost-effective solution compared to the LiDAR paradigm. While achieving promising detection accuracy, current deep neural network-based models remain highly susceptible to adversarial examples. The underlying safety concerns motivate us to investigate realistic adversarial attacks in AD scenarios. Previous work has demonstrated the feasibility of placing adversarial posters on the road surface to induce hallucinations in the detector. However, the unnatural appearance of the posters makes them easily noticeable by humans, and their fixed content can be readily targeted and defended. To address these limitations, we propose the AdvRoad to generate diverse road-style adversarial posters. The adversaries have naturalistic appearances resembling the road surface while compromising the detector to perceive non-existent objects at the attack locations. We employ a two-stage approach, termed Road-Style Adversary Generation and Scenario-Associated Adaptation, to maximize the attack effectiveness on the input scene while ensuring the natural appearance of the poster, allowing the attack to be carried out stealthily without drawing human attention. Extensive experiments show that AdvRoad generalizes well to different detectors, scenes, and spoofing locations. Moreover, physical attacks further demonstrate the practical threats in real-world environments.
- Abstract(参考訳): 現代の自律運転(AD)システムは、3Dオブジェクト検出を利用して、その後の予測と計画のために、3D環境における前景オブジェクトを知覚する。
RGBカメラによる視覚3D検出は、LiDARパラダイムと比較してコスト効率の良いソリューションを提供する。
有望な検出精度を達成する一方で、現在のディープニューラルネットワークベースのモデルは、敵の例に非常に影響を受けやすいままである。
根底にある安全上の懸念は、ADシナリオにおける現実的な敵攻撃を調査する動機となる。
従来の研究は、道路表面に敵のポスターを配置して、検出器内の幻覚を誘発する可能性を示してきた。
しかし、ポスターの異常な外観は、人間にとって容易に目立たせるものであり、その固定された内容は容易に標的にし、防御することができる。
これらの制約に対処するため,道路スタイルの多様なポスターを作成するためのAdvRoadを提案する。
敵は路面に類似した自然主義的な外観を持ち、検出器は攻撃箇所で存在しない物体を知覚する。
ポスターの自然な外観を確保しつつ、入力シーンにおける攻撃効果を最大化し、人間の注意を引かずに密かに攻撃を行なえるようにするため、ロードスタイル・アドバーサリー・ジェネレーションとシナリオ関連適応と呼ばれる2段階のアプローチを採用する。
大規模な実験により、AdvRoadは様々な検出器、シーン、スプーフィングの場所に対してうまく一般化されていることが示されている。
さらに、物理的な攻撃は現実世界の環境における現実的な脅威をさらに示している。
関連論文リスト
- Transient Adversarial 3D Projection Attacks on Object Detection in Autonomous Driving [15.516055760190884]
本稿では,自律運転シナリオにおける物体検出を対象とする3Dプロジェクション攻撃を提案する。
本研究は, YOLOv3 と Mask R-CNN の物理環境における攻撃効果を示すものである。
論文 参考訳(メタデータ) (2024-09-25T22:27:11Z) - TPatch: A Triggered Physical Adversarial Patch [19.768494127237393]
音響信号によって引き起こされる物理的対向パッチであるTPatchを提案する。
運転者の疑念を避けるため,コンテンツベースカモフラージュ法と攻撃強化法を提案する。
論文 参考訳(メタデータ) (2023-12-30T06:06:01Z) - X-Adv: Physical Adversarial Object Attacks against X-ray Prohibited Item
Detection [113.10386151761682]
テクスチャフリーなX線画像を対象とした敵攻撃は未発見である。
本稿では,X線禁止項目検出を目的とした敵攻撃の研究に向けて第一歩を踏み出す。
我々は,X線検出器を消毒できる対向剤として機能する物理的に印刷可能な金属を生成するために,X-Advを提案する。
論文 参考訳(メタデータ) (2023-02-19T06:31:17Z) - FCA: Learning a 3D Full-coverage Vehicle Camouflage for Multi-view
Physical Adversarial Attack [5.476797414272598]
そこで本研究では,FCA(Full-coverage Camouflage Attack)を提案する。
具体的には、まず、平面でないカモフラージュテクスチャを全車表面上でレンダリングする。
次に、レンダリングされたカモフラージュされた車両をフォトリアリスティックなシナリオに変換する変換関数を導入する。
論文 参考訳(メタデータ) (2021-09-15T10:17:12Z) - DPA: Learning Robust Physical Adversarial Camouflages for Object
Detectors [5.598600329573922]
そこで本研究では,Dense Proposals Attack (DPA) を提案し,検出器の頑健で物理的,ターゲットとした対向カモフラージュを学習する。
カモフラージュは、任意の視点と異なる照明条件下で撮影されたとき、敵対的であり続けるため、頑丈である。
We build a virtual 3D scene using the Unity Simulation engine to evaluate fair and reproducally different physical attack。
論文 参考訳(メタデータ) (2021-09-01T00:18:17Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - Exploring Adversarial Robustness of Multi-Sensor Perception Systems in
Self Driving [87.3492357041748]
本稿では,敵物体をホスト車両の上に配置することで,マルチセンサ検出の実用的感受性を示す。
実験の結果, 攻撃が成功した原因は主に画像の特徴が損なわれやすいことが判明した。
よりロバストなマルチモーダル知覚システムに向けて,特徴分断を伴う敵対的訓練が,このような攻撃に対するロバスト性を大幅に高めることを示す。
論文 参考訳(メタデータ) (2021-01-17T21:15:34Z) - Dynamic Adversarial Patch for Evading Object Detection Models [47.32228513808444]
本研究では,実環境に適用したオブジェクト検出器に対する革新的な攻撃手法を提案する。
本手法では,対象物体上の複数の所定位置に配置される動的対向パッチを用いる。
対象オブジェクトと分類のセマンティック距離を考慮したパッチを生成することで攻撃を改善した。
論文 参考訳(メタデータ) (2020-10-25T08:55:40Z) - Spatiotemporal Attacks for Embodied Agents [119.43832001301041]
我々は、エンボディエージェントに対する敵攻撃を研究するための第一歩を踏み出した。
特に,時間次元と空間次元の両方の相互作用履歴を利用する逆例を生成する。
我々の摂動は強力な攻撃力と一般化能力を持っている。
論文 参考訳(メタデータ) (2020-05-19T01:38:47Z) - Physically Realizable Adversarial Examples for LiDAR Object Detection [72.0017682322147]
本稿では,LiDAR検出器を騙すために,汎用な3次元対向物体を生成する手法を提案する。
特に,LiDAR検出器から車両を完全に隠蔽するために,車両の屋根上に対向物体を配置し,その成功率は80%であることを示した。
これは、限られたトレーニングデータから見知らぬ条件下での、より安全な自動運転への一歩だ。
論文 参考訳(メタデータ) (2020-04-01T16:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。