論文の概要: T2I-Based Physical-World Appearance Attack against Traffic Sign Recognition Systems in Autonomous Driving
- arxiv url: http://arxiv.org/abs/2511.12956v1
- Date: Mon, 17 Nov 2025 04:29:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:24.654675
- Title: T2I-Based Physical-World Appearance Attack against Traffic Sign Recognition Systems in Autonomous Driving
- Title(参考訳): 自律運転における交通信号認識システムに対するT2Iを用いた物理世界出現攻撃
- Authors: Chen Ma, Ningfei Wang, Junhao Zheng, Qing Guo, Qian Wang, Qi Alfred Chen, Chao Shen,
- Abstract要約: 交通信号認識(TSR)システムは、自律運転(AD)システムにおいて重要な役割を果たす。
最近の研究は、その脆弱性を物理世界の敵対的外見攻撃に暴露している。
我々は、新しいT2Iベースの外観攻撃フレームワークであるDiffSignを紹介する。
- 参考スコア(独自算出の注目度): 40.067678927952336
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traffic Sign Recognition (TSR) systems play a critical role in Autonomous Driving (AD) systems, enabling real-time detection of road signs, such as STOP and speed limit signs. While these systems are increasingly integrated into commercial vehicles, recent research has exposed their vulnerability to physical-world adversarial appearance attacks. In such attacks, carefully crafted visual patterns are misinterpreted by TSR models as legitimate traffic signs, while remaining inconspicuous or benign to human observers. However, existing adversarial appearance attacks suffer from notable limitations. Pixel-level perturbation-based methods often lack stealthiness and tend to overfit to specific surrogate models, resulting in poor transferability to real-world TSR systems. On the other hand, text-to-image (T2I) diffusion model-based approaches demonstrate limited effectiveness and poor generalization to out-of-distribution sign types. In this paper, we present DiffSign, a novel T2I-based appearance attack framework designed to generate physically robust, highly effective, transferable, practical, and stealthy appearance attacks against TSR systems. To overcome the limitations of prior approaches, we propose a carefully designed attack pipeline that integrates CLIP-based loss and masked prompts to improve attack focus and controllability. We also propose two novel style customization methods to guide visual appearance and improve out-of-domain traffic sign attack generalization and attack stealthiness. We conduct extensive evaluations of DiffSign under varied real-world conditions, including different distances, angles, light conditions, and sign categories. Our method achieves an average physical-world attack success rate of 83.3%, leveraging DiffSign's high effectiveness in attack transferability.
- Abstract(参考訳): 交通信号認識(TSR)システムは、自動走行(AD)システムにおいて重要な役割を担い、STOPや速度制限標識などの道路標識のリアルタイム検出を可能にする。
これらのシステムはますます商用車に統合されているが、最近の研究は、その脆弱性を現実世界の敵対的外見攻撃にさらしている。
このような攻撃では、慎重に製作された視覚パターンは、TSRモデルによって正当な交通標識として誤解されるが、人間の観察者には目立たない、あるいは不明瞭なままである。
しかし、既存の対人攻撃は顕著な限界に悩まされている。
画素レベルの摂動に基づく手法はステルス性に欠けることが多く、特定のサロゲートモデルに過度に適合する傾向があるため、現実世界のTSRシステムへの転送性が低い。
一方,テキスト・トゥ・イメージ(T2I)拡散モデルに基づくアプローチでは,配布外符号型に対する有効性や一般化が不足している。
本稿では、TSRシステムに対する物理的に堅牢で、高効率で、転送可能で、実用的で、ステルス的な外観攻撃を生成するために設計された、新しいT2Iベースの外観攻撃フレームワークであるDiffSignを提案する。
従来のアプローチの限界を克服するために、CLIPベースの損失とマスクされたプロンプトを統合して、攻撃焦点と制御性を改善する、慎重に設計されたアタックパイプラインを提案する。
また、視覚的な外観を誘導し、ドメイン外トラフィックサイン攻撃の一般化とステルスネス攻撃を改善するための2つの新しいスタイルのカスタマイズ手法を提案する。
我々は,距離,角度,光条件,信号カテゴリなど,現実世界のさまざまな条件下でDiffSignを広範囲に評価する。
本手法は,DiffSignの攻撃伝達性向上に有効性を生かして,実世界平均攻撃成功率83.3%を達成する。
関連論文リスト
- LoRA as a Flexible Framework for Securing Large Vision Systems [1.9035583634286277]
敵の攻撃は自動運転システムにとって重要な脅威として浮上している。
本稿では,パラメータを効率よく微調整し,ローランク適応(LoRA)を用いて軽量なセキュリティパッチをトレーニングする方法を提案する。
我々は,事前学習したモデルにパッチを当てて,敵対的事例が存在する場合,最大78.01%の分類精度を向上できることを実証した。
論文 参考訳(メタデータ) (2025-05-31T18:16:21Z) - Explainable Machine Learning for Cyberattack Identification from Traffic Flows [5.834276858232939]
トラフィックネットワークを用いて,半現実的な環境下でのサイバー攻撃をシミュレートし,破壊パターンを解析する。
深層学習に基づく異常検出システムを開発し、最も長い停止時間と全ジャム距離が妥協信号の重要な指標であることを実証した。
この作業は、AI駆動のトラフィックセキュリティを強化し、スマートトランスポートシステムの検出精度と信頼性の両方を改善します。
論文 参考訳(メタデータ) (2025-05-02T17:34:14Z) - Black-Box Adversarial Attack on Vision Language Models for Autonomous Driving [65.61999354218628]
我々は、自律運転システムにおいて、視覚言語モデル(VLM)をターゲットとしたブラックボックス敵攻撃を設計する第一歩を踏み出す。
セマンティクスの生成と注入による低レベル推論の分解を目標とするカスケーディング・アディバーショナル・ディスラプション(CAD)を提案する。
本稿では,高レベルリスクシナリオの理解と構築に代理VLMを活用することで,動的適応に対処するリスクシーンインジェクションを提案する。
論文 参考訳(メタデータ) (2025-01-23T11:10:02Z) - RED: Robust Environmental Design [0.0]
本研究では,広範囲なパッチベースの攻撃に対して堅牢な道路標識を自動設計するアタッカーに依存しない学習手法を提案する。
デジタル環境と物理環境の両方で実施された実証実験により、我々のアプローチは攻撃に対する脆弱性を著しく減らし、既存の技術より優れていることが示された。
論文 参考訳(メタデータ) (2024-11-26T01:38:51Z) - Secure Traffic Sign Recognition: An Attention-Enabled Universal Image Inpainting Mechanism against Light Patch Attacks [15.915892134535842]
研究者たちは最近、信号認識システムを騙す新たな攻撃ベクトルを特定した。
このセキュリティの脅威を効果的に解消するために,SafeSignというユニバーサルイメージの塗装機構を提案する。
それは、敵光のパッチによって汚染された交通標識を修復するために、注意力のある多視点画像融合に依存している。
論文 参考訳(メタデータ) (2024-09-06T08:58:21Z) - Redesigning Traffic Signs to Mitigate Machine-Learning Patch Attacks [4.575921073944177]
交通信号認識(TSR)は自動運転にとって重要な安全要素である。
この研究は、交通信号の設計を再定義し、人間に解釈しながら堅牢性を促進するサインを作る新しいアプローチを提供する。
論文 参考訳(メタデータ) (2024-02-07T08:49:33Z) - When Authentication Is Not Enough: On the Security of Behavioral-Based Driver Authentication Systems [53.2306792009435]
我々はランダムフォレストとリカレントニューラルネットワークアーキテクチャに基づく2つの軽量ドライバ認証システムを開発した。
我々は,SMARTCANとGANCANという2つの新しいエスケープアタックを開発することで,これらのシステムに対する攻撃を最初に提案する。
コントリビューションを通じて、これらのシステムを安全に採用する実践者を支援し、車の盗難を軽減し、ドライバーのセキュリティを高める。
論文 参考訳(メタデータ) (2023-06-09T14:33:26Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - Temporally-Transferable Perturbations: Efficient, One-Shot Adversarial
Attacks for Online Visual Object Trackers [81.90113217334424]
本研究では, オブジェクトテンプレート画像からのみ, 一時移動可能な対人的摂動を生成するフレームワークを提案する。
この摂動はあらゆる検索画像に追加され、事実上何のコストもかからないが、それでもトラッカーを騙すのに成功している。
論文 参考訳(メタデータ) (2020-12-30T15:05:53Z) - Targeted Physical-World Attention Attack on Deep Learning Models in Road
Sign Recognition [79.50450766097686]
本稿では,現実の道路標識攻撃に対するTAA手法を提案する。
実験の結果,TAA法は攻撃成功率(約10%)を向上し,RP2法と比較して摂動損失(約4分の1)を減少させることがわかった。
論文 参考訳(メタデータ) (2020-10-09T02:31:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。