論文の概要: Adversarial Attacks on Traffic Sign Recognition: A Survey
- arxiv url: http://arxiv.org/abs/2307.08278v1
- Date: Mon, 17 Jul 2023 06:58:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-18 14:34:53.200907
- Title: Adversarial Attacks on Traffic Sign Recognition: A Survey
- Title(参考訳): 交通標識認識における敵対的攻撃:調査
- Authors: Svetlana Pavlitska, Nico Lambing and J. Marius Z\"ollner
- Abstract要約: 交通標識は、印刷された標識やステッカーを使って現実世界の攻撃を行うのが容易であるため、敵の攻撃研究には有望である。
我々は,最新の進歩の概要と,さらなる調査を必要とする既存の研究分野について概説する。
- 参考スコア(独自算出の注目度): 2.658812114255374
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traffic sign recognition is an essential component of perception in
autonomous vehicles, which is currently performed almost exclusively with deep
neural networks (DNNs). However, DNNs are known to be vulnerable to adversarial
attacks. Several previous works have demonstrated the feasibility of
adversarial attacks on traffic sign recognition models. Traffic signs are
particularly promising for adversarial attack research due to the ease of
performing real-world attacks using printed signs or stickers. In this work, we
survey existing works performing either digital or real-world attacks on
traffic sign detection and classification models. We provide an overview of the
latest advancements and highlight the existing research areas that require
further investigation.
- Abstract(参考訳): トラヒックサイン認識(traffic sign recognition)は、自動運転車における認識の重要な要素であり、現在ほとんどがディープニューラルネットワーク(dnn)で行われている。
しかし、DNNは敵の攻撃に弱いことが知られている。
いくつかの先行研究は、交通標識認識モデルに対する敵攻撃の可能性を示している。
交通標識は、印刷された標識やステッカーを使った現実世界の攻撃が容易であることから、敵対的な攻撃研究に特に有望である。
本研究は,交通標識の検出と分類モデルに対するデジタルまたは実世界の攻撃を行う既存の作業について調査する。
我々は、最新の進歩の概要と、さらなる調査を必要とする既存の研究領域を強調する。
関連論文リスト
- Adversary ML Resilience in Autonomous Driving Through Human Centered
Perception Mechanisms [0.0]
本稿では,3つの物理的攻撃(テープ,落書き,照明)に対する自律走行システムのレジリエンスについて検討する。
攻撃に対する堅牢性を構築するために、敵の訓練や移動学習のような防御技術が導入された。
その結果,道路標識分類の一般化性を向上させるために,形状訓練から得られる知識を付与することにより,伝達学習モデルが性能において重要な役割を担っていることが示された。
論文 参考訳(メタデータ) (2023-11-02T04:11:45Z) - Explainable and Trustworthy Traffic Sign Detection for Safe Autonomous
Driving: An Inductive Logic Programming Approach [0.0]
自動走行車における停止信号検出のためのILPに基づくアプローチを提案する。
それは人間のような知覚を模倣するため、敵の攻撃に対してより堅牢である。
PR2やADvCamの攻撃があっても、標的とするすべての停止標識を正しく識別することができる。
論文 参考訳(メタデータ) (2023-08-30T09:05:52Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - Using EBGAN for Anomaly Intrusion Detection [13.155954231596434]
ネットワークレコードを通常のトラフィックまたは悪意のあるトラフィックに分類するEBGANベースの侵入検知手法であるIDS-EBGANを提案する。
IDS-EBGANのジェネレータは、トレーニングセット内の元の悪意のあるネットワークトラフィックを、敵対的な悪意のある例に変換する責任がある。
テスト中、IDS-EBGANは識別器の再構成誤差を使用してトラフィックレコードを分類する。
論文 参考訳(メタデータ) (2022-06-21T13:49:34Z) - Efficient Federated Learning with Spike Neural Networks for Traffic Sign
Recognition [70.306089187104]
我々は、エネルギー効率と高速モデルトレーニングのための交通信号認識に強力なスパイクニューラルネットワーク(SNN)を導入している。
数値的な結果から,提案するフェデレーションSNNは,従来のフェデレーション畳み込みニューラルネットワークよりも精度,ノイズ免疫性,エネルギー効率に優れていたことが示唆された。
論文 参考訳(メタデータ) (2022-05-28T03:11:48Z) - Resilience of Autonomous Vehicle Object Category Detection to Universal
Adversarial Perturbations [0.0]
クラスレベルでの物体検出に対する普遍摂動の影響を評価する。
我々は、人、車、交通信号、トラック、停止標識、交通信号の5つのカテゴリの画像に、Faster-RCNNオブジェクト検出器を使用します。
我々の結果は、人、車、信号機、トラック、および停止標識が、(少なくとも)普遍的な摂動に対して、その順序で(少なくとも)回復可能であることを示している。
論文 参考訳(メタデータ) (2021-07-10T03:40:25Z) - Investigating the significance of adversarial attacks and their relation
to interpretability for radar-based human activity recognition systems [2.081492937901262]
レーダベースのCNNは、ホワイトボックス攻撃とブラックボックス攻撃の両方に影響を受けやすいことを示す。
我々はまた、レーダーベースのCNNによって行われた予測を変更することが可能である極端な敵対攻撃ケースの存在を明らかにします。
論文 参考訳(メタデータ) (2021-01-26T05:16:16Z) - Targeted Physical-World Attention Attack on Deep Learning Models in Road
Sign Recognition [79.50450766097686]
本稿では,現実の道路標識攻撃に対するTAA手法を提案する。
実験の結果,TAA法は攻撃成功率(約10%)を向上し,RP2法と比較して摂動損失(約4分の1)を減少させることがわかった。
論文 参考訳(メタデータ) (2020-10-09T02:31:34Z) - Measurement-driven Security Analysis of Imperceptible Impersonation
Attacks [54.727945432381716]
本稿では,ディープニューラルネットワークを用いた顔認識システムの実用性について検討する。
皮膚の色,性別,年齢などの要因が,特定の標的に対する攻撃を行う能力に影響を及ぼすことを示す。
また,攻撃者の顔のさまざまなポーズや視点に対して堅牢なユニバーサルアタックを構築する可能性についても検討した。
論文 参考訳(メタデータ) (2020-08-26T19:27:27Z) - Adversarial Attacks and Defenses on Graphs: A Review, A Tool and
Empirical Studies [73.39668293190019]
敵攻撃は入力に対する小さな摂動によって容易に騙される。
グラフニューラルネットワーク(GNN)がこの脆弱性を継承することを実証している。
本調査では,既存の攻撃と防御を分類し,対応する最先端の手法を概観する。
論文 参考訳(メタデータ) (2020-03-02T04:32:38Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。