論文の概要: The Outline of Deception: Physical Adversarial Attacks on Traffic Signs Using Edge Patches
- arxiv url: http://arxiv.org/abs/2512.00765v1
- Date: Sun, 30 Nov 2025 07:26:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.407172
- Title: The Outline of Deception: Physical Adversarial Attacks on Traffic Signs Using Edge Patches
- Title(参考訳): 認識の概略:エッジパッチを用いた交通標識の物理的敵対攻撃
- Authors: Haojie Jia, Te Hu, Haowen Li, Long Jin, Chongshi Xin, Yuchi Yao, Jiarui Xiao,
- Abstract要約: 本研究は,交通標識分類のためのステルス対応逆パッチ方式TESP-Attackを提案する。
人間の視覚的注意は主に交通標識の中央領域に焦点を当てているという観察に基づいて, エッジアライメントマスクを生成するために, ケースセグメンテーションを採用している。
U-Netジェネレータは敵パッチの作成に利用され、色とテクスチャの制約によって最適化される。
- 参考スコア(独自算出の注目度): 6.895203236074274
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Intelligent driving systems are vulnerable to physical adversarial attacks on traffic signs. These attacks can cause misclassification, leading to erroneous driving decisions that compromise road safety. Moreover, within V2X networks, such misinterpretations can propagate, inducing cascading failures that disrupt overall traffic flow and system stability. However, a key limitation of current physical attacks is their lack of stealth. Most methods apply perturbations to central regions of the sign, resulting in visually salient patterns that are easily detectable by human observers, thereby limiting their real-world practicality. This study proposes TESP-Attack, a novel stealth-aware adversarial patch method for traffic sign classification. Based on the observation that human visual attention primarily focuses on the central regions of traffic signs, we employ instance segmentation to generate edge-aligned masks that conform to the shape characteristics of the signs. A U-Net generator is utilized to craft adversarial patches, which are then optimized through color and texture constraints along with frequency domain analysis to achieve seamless integration with the background environment, resulting in highly effective visual concealment. The proposed method demonstrates outstanding attack success rates across traffic sign classification models with varied architectures, achieving over 90% under limited query budgets. It also exhibits strong cross-model transferability and maintains robust real-world performance that remains stable under varying angles and distances.
- Abstract(参考訳): 知的運転システムは、交通標識に対する物理的敵攻撃に対して脆弱である。
これらの攻撃は誤分類を引き起こし、道路の安全を損なう誤った運転判断につながる。
さらに、V2Xネットワーク内では、このような誤解釈が伝播し、全体のトラフィックフローとシステムの安定性を損なうカスケード障害を引き起こす。
しかし、現在の物理的な攻撃の鍵となる制限は、その盗難の欠如である。
ほとんどの方法は、サインの中央に摂動を適用し、人間の観察者が容易に検出できる視覚的に健全なパターンをもたらし、現実の実用性を制限する。
本研究は,交通標識分類のためのステルス対応逆パッチ方式TESP-Attackを提案する。
人間の視覚的注意は主に交通標識の中央領域に焦点をあてているという観察に基づいて, サインの形状特性に適合するエッジアライメントマスクを生成するために, ケースセグメンテーションを採用している。
U-Netジェネレータを使用して、色とテクスチャの制約と周波数領域分析によって最適化された敵パッチを作成し、背景環境とのシームレスな統合を実現し、高効率な視覚的隠蔽を実現する。
提案手法は, 多様なアーキテクチャを持つ交通標識分類モデルにおいて, 限られたクエリ予算下で90%以上を達成し, 優れた攻撃成功率を示す。
また、強いクロスモデル転送可能性を示し、様々な角度と距離で安定な実世界のパフォーマンスを維持している。
関連論文リスト
- T2I-Based Physical-World Appearance Attack against Traffic Sign Recognition Systems in Autonomous Driving [40.067678927952336]
交通信号認識(TSR)システムは、自律運転(AD)システムにおいて重要な役割を果たす。
最近の研究は、その脆弱性を物理世界の敵対的外見攻撃に暴露している。
我々は、新しいT2Iベースの外観攻撃フレームワークであるDiffSignを紹介する。
論文 参考訳(メタデータ) (2025-11-17T04:29:55Z) - Explainable Machine Learning for Cyberattack Identification from Traffic Flows [5.834276858232939]
トラフィックネットワークを用いて,半現実的な環境下でのサイバー攻撃をシミュレートし,破壊パターンを解析する。
深層学習に基づく異常検出システムを開発し、最も長い停止時間と全ジャム距離が妥協信号の重要な指標であることを実証した。
この作業は、AI駆動のトラフィックセキュリティを強化し、スマートトランスポートシステムの検出精度と信頼性の両方を改善します。
論文 参考訳(メタデータ) (2025-05-02T17:34:14Z) - Black-Box Adversarial Attack on Vision Language Models for Autonomous Driving [65.61999354218628]
我々は、自律運転システムにおいて、視覚言語モデル(VLM)をターゲットとしたブラックボックス敵攻撃を設計する第一歩を踏み出す。
セマンティクスの生成と注入による低レベル推論の分解を目標とするカスケーディング・アディバーショナル・ディスラプション(CAD)を提案する。
本稿では,高レベルリスクシナリオの理解と構築に代理VLMを活用することで,動的適応に対処するリスクシーンインジェクションを提案する。
論文 参考訳(メタデータ) (2025-01-23T11:10:02Z) - RED: Robust Environmental Design [0.0]
本研究では,広範囲なパッチベースの攻撃に対して堅牢な道路標識を自動設計するアタッカーに依存しない学習手法を提案する。
デジタル環境と物理環境の両方で実施された実証実験により、我々のアプローチは攻撃に対する脆弱性を著しく減らし、既存の技術より優れていることが示された。
論文 参考訳(メタデータ) (2024-11-26T01:38:51Z) - Secure Traffic Sign Recognition: An Attention-Enabled Universal Image Inpainting Mechanism against Light Patch Attacks [15.915892134535842]
研究者たちは最近、信号認識システムを騙す新たな攻撃ベクトルを特定した。
このセキュリティの脅威を効果的に解消するために,SafeSignというユニバーサルイメージの塗装機構を提案する。
それは、敵光のパッチによって汚染された交通標識を修復するために、注意力のある多視点画像融合に依存している。
論文 参考訳(メタデータ) (2024-09-06T08:58:21Z) - SAFE-SIM: Safety-Critical Closed-Loop Traffic Simulation with Diffusion-Controllable Adversaries [94.84458417662407]
制御可能なクローズドループ安全クリティカルシミュレーションフレームワークであるSAFE-SIMを紹介する。
提案手法は,1)現実の環境を深く反映した現実的な長距離安全クリティカルシナリオの生成,2)より包括的でインタラクティブな評価のための制御可能な敵行動の提供,の2つの利点をもたらす。
複数のプランナにまたがるnuScenesとnuPlanデータセットを使用して、我々のフレームワークを実証的に検証し、リアリズムと制御性の両方の改善を実証した。
論文 参考訳(メタデータ) (2023-12-31T04:14:43Z) - Explainable and Trustworthy Traffic Sign Detection for Safe Autonomous
Driving: An Inductive Logic Programming Approach [0.0]
自動走行車における停止信号検出のためのILPに基づくアプローチを提案する。
それは人間のような知覚を模倣するため、敵の攻撃に対してより堅牢である。
PR2やADvCamの攻撃があっても、標的とするすべての停止標識を正しく識別することができる。
論文 参考訳(メタデータ) (2023-08-30T09:05:52Z) - On the Real-World Adversarial Robustness of Real-Time Semantic
Segmentation Models for Autonomous Driving [59.33715889581687]
現実世界の敵対的な例(通常はパッチの形で)の存在は、安全クリティカルなコンピュータビジョンタスクにおけるディープラーニングモデルの使用に深刻な脅威をもたらす。
本稿では,異なる種類の対立パッチを攻撃した場合のセマンティックセグメンテーションモデルのロバスト性を評価する。
画素の誤分類を誘導する攻撃者の能力を改善するために, 新たな損失関数を提案する。
論文 参考訳(メタデータ) (2022-01-05T22:33:43Z) - Temporally-Transferable Perturbations: Efficient, One-Shot Adversarial
Attacks for Online Visual Object Trackers [81.90113217334424]
本研究では, オブジェクトテンプレート画像からのみ, 一時移動可能な対人的摂動を生成するフレームワークを提案する。
この摂動はあらゆる検索画像に追加され、事実上何のコストもかからないが、それでもトラッカーを騙すのに成功している。
論文 参考訳(メタデータ) (2020-12-30T15:05:53Z) - Targeted Physical-World Attention Attack on Deep Learning Models in Road
Sign Recognition [79.50450766097686]
本稿では,現実の道路標識攻撃に対するTAA手法を提案する。
実験の結果,TAA法は攻撃成功率(約10%)を向上し,RP2法と比較して摂動損失(約4分の1)を減少させることがわかった。
論文 参考訳(メタデータ) (2020-10-09T02:31:34Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。