論文の概要: Towards Powerful and Practical Patch Attacks for 2D Object Detection in Autonomous Driving
- arxiv url: http://arxiv.org/abs/2508.10600v1
- Date: Thu, 14 Aug 2025 12:41:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-15 22:24:48.314809
- Title: Towards Powerful and Practical Patch Attacks for 2D Object Detection in Autonomous Driving
- Title(参考訳): 自律走行における2次元物体検出のための強力かつ実用的なパッチアタックを目指して
- Authors: Yuxin Cao, Yedi Zhang, Wentao He, Yifan Liao, Yan Xiao, Chang Li, Zhiyong Huang, Jin Song Dong,
- Abstract要約: 特にブラックボックス攻撃は、モデル知識のない攻撃の成功率が高いことで有名である。
従来の転送可能性に基づくブラックボックス攻撃では、平均平均精度(mAP)が評価基準として採用されるのが一般的である。
我々はP$3$Aを提案する。P$3$Aは、自律運転における2次元物体検出のための強力で実用的なパッチアタックフレームワークであり、特に高解像度データセットに最適化されている。
- 参考スコア(独自算出の注目度): 13.418604347398372
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning-based autonomous driving systems remain critically vulnerable to adversarial patches, posing serious safety and security risks in their real-world deployment. Black-box attacks, notable for their high attack success rate without model knowledge, are especially concerning, with their transferability extensively studied to reduce computational costs compared to query-based attacks. Previous transferability-based black-box attacks typically adopt mean Average Precision (mAP) as the evaluation metric and design training loss accordingly. However, due to the presence of multiple detected bounding boxes and the relatively lenient Intersection over Union (IoU) thresholds, the attack effectiveness of these approaches is often overestimated, resulting in reduced success rates in practical attacking scenarios. Furthermore, patches trained on low-resolution data often fail to maintain effectiveness on high-resolution images, limiting their transferability to autonomous driving datasets. To fill this gap, we propose P$^3$A, a Powerful and Practical Patch Attack framework for 2D object detection in autonomous driving, specifically optimized for high-resolution datasets. First, we introduce a novel metric, Practical Attack Success Rate (PASR), to more accurately quantify attack effectiveness with greater relevance for pedestrian safety. Second, we present a tailored Localization-Confidence Suppression Loss (LCSL) to improve attack transferability under PASR. Finally, to maintain the transferability for high-resolution datasets, we further incorporate the Probabilistic Scale-Preserving Padding (PSPP) into the patch attack pipeline as a data preprocessing step. Extensive experiments show that P$^3$A outperforms state-of-the-art attacks on unseen models and unseen high-resolution datasets, both under the proposed practical IoU-based evaluation metric and the previous mAP-based metrics.
- Abstract(参考訳): 学習ベースの自律走行システムは、敵のパッチに対して致命的な脆弱性を持ち、現実の展開において重大な安全性とセキュリティ上のリスクを生じさせる。
ブラックボックス攻撃は、モデル知識のない高い攻撃成功率で特に重要であり、その転送性は、クエリベースの攻撃と比較して計算コストを削減するために広く研究されている。
従来の転送可能性に基づくブラックボックス攻撃では、平均平均精度(mAP)が評価基準および設計トレーニング損失として採用される。
しかし、複数の検出されたバウンディングボックスの存在と、比較的寛大なIoU(Intersection over Union)閾値のため、これらの手法の攻撃効果はしばしば過大評価され、実用的な攻撃シナリオにおける成功率を低下させる。
さらに、低解像度データでトレーニングされたパッチは、高解像度画像の有効性を維持することができず、自律運転データセットへの転送可能性を制限する。
このギャップを埋めるために、我々はP$^3$Aを提案する。P$^3$Aは、自律運転における2次元物体検出のための強力で実用的なパッチアタックフレームワークであり、特に高解像度データセットに最適化されている。
まず,歩行者の安全に配慮した攻撃効果をより正確に定量化するために,新しい指標である実用的攻撃成功率(PASR)を導入する。
第2に,PASRによる攻撃伝達性の向上を目的としたLCSL(Localization-Confidence Suppression Loss)を提案する。
最後に、高解像度データセットの転送可能性を維持するために、パッチアタックパイプラインにPSPP(Probabilistic Scale-Preserving Padding)をデータ前処理ステップとして組み込む。
大規模な実験により、P$^3$Aは、提案された実用的なIoUベースの評価基準と、それ以前のmAPベースの測定基準の両方の下で、未確認モデルと未確認高解像度データセットに対する最先端攻撃よりも優れていることが示された。
関連論文リスト
- Preliminary Investigation into Uncertainty-Aware Attack Stage Classification [81.28215542218724]
この研究は、不確実性の下での攻撃段階推論の問題に対処する。
Evidential Deep Learning (EDL) に基づく分類手法を提案し、ディリクレ分布のパラメータを可能な段階に出力することで予測の不確実性をモデル化する。
シミュレーション環境における予備実験により,提案モデルが精度良く攻撃の段階を推定できることが実証された。
論文 参考訳(メタデータ) (2025-08-01T06:58:00Z) - Explainer-guided Targeted Adversarial Attacks against Binary Code Similarity Detection Models [12.524811181751577]
我々は,BCSDモデルに対する敵攻撃に対する新たな最適化を提案する。
特に,攻撃目標は,モデル予測を特定の範囲に制限することである。
我々の攻撃は、モデル決定境界の解釈において、ブラックボックス、モデルに依存しない説明器の優れた能力を活用する。
論文 参考訳(メタデータ) (2025-06-05T08:29:19Z) - R-TPT: Improving Adversarial Robustness of Vision-Language Models through Test-Time Prompt Tuning [97.49610356913874]
視覚言語モデル(VLM)のためのロバストテスト時プロンプトチューニング(R-TPT)を提案する。
R-TPTは、推論段階における敵攻撃の影響を緩和する。
プラグアンドプレイの信頼性に基づく重み付きアンサンブル戦略を導入し,防御強化を図る。
論文 参考訳(メタデータ) (2025-04-15T13:49:31Z) - On Minimizing Adversarial Counterfactual Error in Adversarial RL [18.044879441434432]
敵の騒音は、安全クリティカルなシナリオにおいて重大なリスクを生じさせる。
我々は,ACoE(Adversarial Counterfactual Error)と呼ばれる新しい目標を導入する。
本手法は, 対向RL問題に対処するための最先端手法を著しく上回っている。
論文 参考訳(メタデータ) (2024-06-07T08:14:24Z) - The Pitfalls and Promise of Conformal Inference Under Adversarial Attacks [90.52808174102157]
医療画像や自律運転などの安全クリティカルな応用においては、高い敵の堅牢性を維持し、潜在的敵の攻撃から保護することが不可欠である。
敵対的に訓練されたモデルに固有の不確実性に関して、注目すべき知識ギャップが残っている。
本研究では,共形予測(CP)の性能を標準対向攻撃の文脈で検証することにより,ディープラーニングモデルの不確実性について検討する。
論文 参考訳(メタデータ) (2024-05-14T18:05:19Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - End-to-end Uncertainty-based Mitigation of Adversarial Attacks to
Automated Lane Centering [12.11406399284803]
我々は,認識,計画,制御モジュール全体にわたる敵の攻撃の影響に対処するエンドツーエンドアプローチを提案する。
われわれのアプローチは、敵攻撃の影響を効果的に軽減し、元のOpenPilotよりも55%から90%改善できる。
論文 参考訳(メタデータ) (2021-02-27T22:36:32Z) - Evaluating and Improving Adversarial Robustness of Machine
Learning-Based Network Intrusion Detectors [21.86766733460335]
本研究では,ML ベースの NIDS のロバスト性を評価するため,グレー/ブラックボックスのトラフィック空間攻撃に関する最初の系統的研究を行った。
私たちの仕事は、以下の点で以前のものより優れています。
また,システムロバスト性を改善するために,敵攻撃に対する防御策を提案する。
論文 参考訳(メタデータ) (2020-05-15T13:06:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。