論文の概要: Secure Traffic Sign Recognition: An Attention-Enabled Universal Image Inpainting Mechanism against Light Patch Attacks
- arxiv url: http://arxiv.org/abs/2409.04133v1
- Date: Fri, 6 Sep 2024 08:58:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-09 16:16:11.515750
- Title: Secure Traffic Sign Recognition: An Attention-Enabled Universal Image Inpainting Mechanism against Light Patch Attacks
- Title(参考訳): 安全な交通信号認識:光パッチ攻撃に対する注意型ユニバーサルイメージ塗布機構
- Authors: Hangcheng Cao, Longzhi Yuan, Guowen Xu, Ziyang He, Zhengru Fang, Yuguang Fang,
- Abstract要約: 研究者たちは最近、信号認識システムを騙す新たな攻撃ベクトルを特定した。
このセキュリティの脅威を効果的に解消するために,SafeSignというユニバーサルイメージの塗装機構を提案する。
それは、敵光のパッチによって汚染された交通標識を修復するために、注意力のある多視点画像融合に依存している。
- 参考スコア(独自算出の注目度): 15.915892134535842
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traffic sign recognition systems play a crucial role in assisting drivers to make informed decisions while driving. However, due to the heavy reliance on deep learning technologies, particularly for future connected and autonomous driving, these systems are susceptible to adversarial attacks that pose significant safety risks to both personal and public transportation. Notably, researchers recently identified a new attack vector to deceive sign recognition systems: projecting well-designed adversarial light patches onto traffic signs. In comparison with traditional adversarial stickers or graffiti, these emerging light patches exhibit heightened aggression due to their ease of implementation and outstanding stealthiness. To effectively counter this security threat, we propose a universal image inpainting mechanism, namely, SafeSign. It relies on attention-enabled multi-view image fusion to repair traffic signs contaminated by adversarial light patches, thereby ensuring the accurate sign recognition. Here, we initially explore the fundamental impact of malicious light patches on the local and global feature spaces of authentic traffic signs. Then, we design a binary mask-based U-Net image generation pipeline outputting diverse contaminated sign patterns, to provide our image inpainting model with needed training data. Following this, we develop an attention mechanism-enabled neural network to jointly utilize the complementary information from multi-view images to repair contaminated signs. Finally, extensive experiments are conducted to evaluate SafeSign's effectiveness in resisting potential light patch-based attacks, bringing an average accuracy improvement of 54.8% in three widely-used sign recognition models
- Abstract(参考訳): 交通標識認識システムは、運転中にドライバーが情報的な決定を下すのを助けるために重要な役割を果たす。
しかし、深層学習技術、特に将来のコネクテッド・自動運転に大きく依存しているため、これらのシステムは個人と公共交通機関の両方に重大な安全リスクをもたらす敵の攻撃の影響を受けやすい。
特に最近研究者たちは、信号認識システムを騙す新たな攻撃ベクトルを見つけました。
従来の敵のステッカーや落書きと比較すると、これらの出現したライトパッチは、実装の容易さと優れたステルスネスにより、攻撃性を高めている。
このセキュリティの脅威を効果的に解消するために,SafeSignというユニバーサルイメージの塗装機構を提案する。
注意力のある多視点画像融合を利用して、敵の光パッチによって汚染された交通標識を修復し、正確な信号認識を保証する。
ここでは、まず、悪質な光パッチが実交通標識の局所的およびグローバル的特徴空間に与える影響について検討する。
次に,多彩な汚染されたサインパターンを出力するバイナリマスクベースのU-Net画像生成パイプラインを設計し,必要なトレーニングデータを用いた画像インペイントモデルを提案する。
次に,マルチビュー画像からの補完情報を協調的に活用し,汚染された標識を修復するアテンション機構対応ニューラルネットワークを開発した。
最後に、SafeSignの潜在的な光パッチベースの攻撃に対する抵抗効果を評価するための広範囲な実験が行われ、3つの広く使用されている手話認識モデルにおいて、平均精度が54.8%向上した。
関連論文リスト
- Time Traveling to Defend Against Adversarial Example Attacks in Image Classification [10.353892677735212]
敵の例による攻撃は、機械学習にとって重要な脅威として浮上している。
画像分類における敵対的攻撃は、画像分類ニューラルネットワークを混乱させる画像への様々な小さな修正を悪用する。
この研究は「タイムトラベル」の概念を導入し、誰にでもアクセス可能な歴史的ストリートビュー画像を用いて、同じ標識の異なる過去のバージョンで推論を行う。
論文 参考訳(メタデータ) (2024-10-10T19:56:28Z) - A Hybrid Quantum-Classical AI-Based Detection Strategy for Generative Adversarial Network-Based Deepfake Attacks on an Autonomous Vehicle Traffic Sign Classification System [2.962613983209398]
著者らは、AV信号の分類システムを騙すために、生成的敵ネットワークベースのディープフェイク攻撃をいかに構築できるかを提示する。
彼らは、ハイブリッド量子古典ニューラルネットワーク(NN)を活用したディープフェイクトラフィックサイン画像検出戦略を開発した。
その結果、ディープフェイク検出のためのハイブリッド量子古典的NNは、ほとんどの場合、ベースラインの古典的畳み込みNNと似た、あるいは高い性能が得られることが示唆された。
論文 参考訳(メタデータ) (2024-09-25T19:44:56Z) - TPatch: A Triggered Physical Adversarial Patch [19.768494127237393]
音響信号によって引き起こされる物理的対向パッチであるTPatchを提案する。
運転者の疑念を避けるため,コンテンツベースカモフラージュ法と攻撃強化法を提案する。
論文 参考訳(メタデータ) (2023-12-30T06:06:01Z) - Adversarial Prompt Tuning for Vision-Language Models [86.5543597406173]
AdvPT(Adversarial Prompt Tuning)は、視覚言語モデル(VLM)における画像エンコーダの対向ロバスト性を高める技術である。
我々は,AdvPTが白箱攻撃や黒箱攻撃に対する抵抗性を向上し,既存の画像処理による防御技術と組み合わせることで相乗効果を示すことを示した。
論文 参考訳(メタデータ) (2023-11-19T07:47:43Z) - Adversarial Attacks on Traffic Sign Recognition: A Survey [2.658812114255374]
交通標識は、印刷された標識やステッカーを使って現実世界の攻撃を行うのが容易であるため、敵の攻撃研究には有望である。
我々は,最新の進歩の概要と,さらなる調査を必要とする既存の研究分野について概説する。
論文 参考訳(メタデータ) (2023-07-17T06:58:22Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - Efficient Federated Learning with Spike Neural Networks for Traffic Sign
Recognition [70.306089187104]
我々は、エネルギー効率と高速モデルトレーニングのための交通信号認識に強力なスパイクニューラルネットワーク(SNN)を導入している。
数値的な結果から,提案するフェデレーションSNNは,従来のフェデレーション畳み込みニューラルネットワークよりも精度,ノイズ免疫性,エネルギー効率に優れていたことが示唆された。
論文 参考訳(メタデータ) (2022-05-28T03:11:48Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - Exploring Adversarial Robustness of Multi-Sensor Perception Systems in
Self Driving [87.3492357041748]
本稿では,敵物体をホスト車両の上に配置することで,マルチセンサ検出の実用的感受性を示す。
実験の結果, 攻撃が成功した原因は主に画像の特徴が損なわれやすいことが判明した。
よりロバストなマルチモーダル知覚システムに向けて,特徴分断を伴う敵対的訓練が,このような攻撃に対するロバスト性を大幅に高めることを示す。
論文 参考訳(メタデータ) (2021-01-17T21:15:34Z) - Road images augmentation with synthetic traffic signs using neural
networks [3.330229314824913]
まれな交通標識の検出と分類のタスクを検討します。
合成トレーニングデータを用いて、その課題の解決を目指します。
本稿では,合成標識を外観に整合させる3つの手法を提案する。
論文 参考訳(メタデータ) (2021-01-13T08:10:33Z) - Targeted Physical-World Attention Attack on Deep Learning Models in Road
Sign Recognition [79.50450766097686]
本稿では,現実の道路標識攻撃に対するTAA手法を提案する。
実験の結果,TAA法は攻撃成功率(約10%)を向上し,RP2法と比較して摂動損失(約4分の1)を減少させることがわかった。
論文 参考訳(メタデータ) (2020-10-09T02:31:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。