論文の概要: Adversarial Attacks on Traffic Sign Recognition: A Survey
- arxiv url: http://arxiv.org/abs/2307.08278v1
- Date: Mon, 17 Jul 2023 06:58:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-18 14:34:53.200907
- Title: Adversarial Attacks on Traffic Sign Recognition: A Survey
- Title(参考訳): 交通標識認識における敵対的攻撃:調査
- Authors: Svetlana Pavlitska, Nico Lambing and J. Marius Z\"ollner
- Abstract要約: 交通標識は、印刷された標識やステッカーを使って現実世界の攻撃を行うのが容易であるため、敵の攻撃研究には有望である。
我々は,最新の進歩の概要と,さらなる調査を必要とする既存の研究分野について概説する。
- 参考スコア(独自算出の注目度): 2.658812114255374
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traffic sign recognition is an essential component of perception in
autonomous vehicles, which is currently performed almost exclusively with deep
neural networks (DNNs). However, DNNs are known to be vulnerable to adversarial
attacks. Several previous works have demonstrated the feasibility of
adversarial attacks on traffic sign recognition models. Traffic signs are
particularly promising for adversarial attack research due to the ease of
performing real-world attacks using printed signs or stickers. In this work, we
survey existing works performing either digital or real-world attacks on
traffic sign detection and classification models. We provide an overview of the
latest advancements and highlight the existing research areas that require
further investigation.
- Abstract(参考訳): トラヒックサイン認識(traffic sign recognition)は、自動運転車における認識の重要な要素であり、現在ほとんどがディープニューラルネットワーク(dnn)で行われている。
しかし、DNNは敵の攻撃に弱いことが知られている。
いくつかの先行研究は、交通標識認識モデルに対する敵攻撃の可能性を示している。
交通標識は、印刷された標識やステッカーを使った現実世界の攻撃が容易であることから、敵対的な攻撃研究に特に有望である。
本研究は,交通標識の検出と分類モデルに対するデジタルまたは実世界の攻撃を行う既存の作業について調査する。
我々は、最新の進歩の概要と、さらなる調査を必要とする既存の研究領域を強調する。
関連論文リスト
- A Hybrid Quantum-Classical AI-Based Detection Strategy for Generative Adversarial Network-Based Deepfake Attacks on an Autonomous Vehicle Traffic Sign Classification System [2.962613983209398]
著者らは、AV信号の分類システムを騙すために、生成的敵ネットワークベースのディープフェイク攻撃をいかに構築できるかを提示する。
彼らは、ハイブリッド量子古典ニューラルネットワーク(NN)を活用したディープフェイクトラフィックサイン画像検出戦略を開発した。
その結果、ディープフェイク検出のためのハイブリッド量子古典的NNは、ほとんどの場合、ベースラインの古典的畳み込みNNと似た、あるいは高い性能が得られることが示唆された。
論文 参考訳(メタデータ) (2024-09-25T19:44:56Z) - Secure Traffic Sign Recognition: An Attention-Enabled Universal Image Inpainting Mechanism against Light Patch Attacks [15.915892134535842]
研究者たちは最近、信号認識システムを騙す新たな攻撃ベクトルを特定した。
このセキュリティの脅威を効果的に解消するために,SafeSignというユニバーサルイメージの塗装機構を提案する。
それは、敵光のパッチによって汚染された交通標識を修復するために、注意力のある多視点画像融合に依存している。
論文 参考訳(メタデータ) (2024-09-06T08:58:21Z) - Navigating Connected Car Cybersecurity: Location Anomaly Detection with RAN Data [2.147995542780459]
ハイジャックやスパイ活動を含むサイバー攻撃は、コネクテッドカーに重大な脅威をもたらす。
本稿では,Radio Access Network (RAN) イベント監視による潜在的な攻撃を識別するための新しいアプローチを提案する。
本論文の主な貢献は,複数箇所に同時に出現するデバイスを識別する位置異常検出モジュールである。
論文 参考訳(メタデータ) (2024-07-02T22:42:45Z) - Explainable and Trustworthy Traffic Sign Detection for Safe Autonomous
Driving: An Inductive Logic Programming Approach [0.0]
自動走行車における停止信号検出のためのILPに基づくアプローチを提案する。
それは人間のような知覚を模倣するため、敵の攻撃に対してより堅牢である。
PR2やADvCamの攻撃があっても、標的とするすべての停止標識を正しく識別することができる。
論文 参考訳(メタデータ) (2023-08-30T09:05:52Z) - When Authentication Is Not Enough: On the Security of Behavioral-Based Driver Authentication Systems [53.2306792009435]
我々はランダムフォレストとリカレントニューラルネットワークアーキテクチャに基づく2つの軽量ドライバ認証システムを開発した。
我々は,SMARTCANとGANCANという2つの新しいエスケープアタックを開発することで,これらのシステムに対する攻撃を最初に提案する。
コントリビューションを通じて、これらのシステムを安全に採用する実践者を支援し、車の盗難を軽減し、ドライバーのセキュリティを高める。
論文 参考訳(メタデータ) (2023-06-09T14:33:26Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - Efficient Federated Learning with Spike Neural Networks for Traffic Sign
Recognition [70.306089187104]
我々は、エネルギー効率と高速モデルトレーニングのための交通信号認識に強力なスパイクニューラルネットワーク(SNN)を導入している。
数値的な結果から,提案するフェデレーションSNNは,従来のフェデレーション畳み込みニューラルネットワークよりも精度,ノイズ免疫性,エネルギー効率に優れていたことが示唆された。
論文 参考訳(メタデータ) (2022-05-28T03:11:48Z) - Investigating the significance of adversarial attacks and their relation
to interpretability for radar-based human activity recognition systems [2.081492937901262]
レーダベースのCNNは、ホワイトボックス攻撃とブラックボックス攻撃の両方に影響を受けやすいことを示す。
我々はまた、レーダーベースのCNNによって行われた予測を変更することが可能である極端な敵対攻撃ケースの存在を明らかにします。
論文 参考訳(メタデータ) (2021-01-26T05:16:16Z) - Targeted Physical-World Attention Attack on Deep Learning Models in Road
Sign Recognition [79.50450766097686]
本稿では,現実の道路標識攻撃に対するTAA手法を提案する。
実験の結果,TAA法は攻撃成功率(約10%)を向上し,RP2法と比較して摂動損失(約4分の1)を減少させることがわかった。
論文 参考訳(メタデータ) (2020-10-09T02:31:34Z) - Measurement-driven Security Analysis of Imperceptible Impersonation
Attacks [54.727945432381716]
本稿では,ディープニューラルネットワークを用いた顔認識システムの実用性について検討する。
皮膚の色,性別,年齢などの要因が,特定の標的に対する攻撃を行う能力に影響を及ぼすことを示す。
また,攻撃者の顔のさまざまなポーズや視点に対して堅牢なユニバーサルアタックを構築する可能性についても検討した。
論文 参考訳(メタデータ) (2020-08-26T19:27:27Z) - Adversarial Attacks and Defenses on Graphs: A Review, A Tool and
Empirical Studies [73.39668293190019]
敵攻撃は入力に対する小さな摂動によって容易に騙される。
グラフニューラルネットワーク(GNN)がこの脆弱性を継承することを実証している。
本調査では,既存の攻撃と防御を分類し,対応する最先端の手法を概観する。
論文 参考訳(メタデータ) (2020-03-02T04:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。