論文の概要: Targeted Physical-World Attention Attack on Deep Learning Models in Road
Sign Recognition
- arxiv url: http://arxiv.org/abs/2010.04331v3
- Date: Fri, 13 Aug 2021 01:29:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 04:47:44.365024
- Title: Targeted Physical-World Attention Attack on Deep Learning Models in Road
Sign Recognition
- Title(参考訳): 道路標識認識における深層学習モデルに対する物理世界注意攻撃
- Authors: Xinghao Yang, Weifeng Liu, Shengli Zhang, Wei Liu, Dacheng Tao
- Abstract要約: 本稿では,現実の道路標識攻撃に対するTAA手法を提案する。
実験の結果,TAA法は攻撃成功率(約10%)を向上し,RP2法と比較して摂動損失(約4分の1)を減少させることがわかった。
- 参考スコア(独自算出の注目度): 79.50450766097686
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real world traffic sign recognition is an important step towards building
autonomous vehicles, most of which highly dependent on Deep Neural Networks
(DNNs). Recent studies demonstrated that DNNs are surprisingly susceptible to
adversarial examples. Many attack methods have been proposed to understand and
generate adversarial examples, such as gradient based attack, score based
attack, decision based attack, and transfer based attacks. However, most of
these algorithms are ineffective in real-world road sign attack, because (1)
iteratively learning perturbations for each frame is not realistic for a fast
moving car and (2) most optimization algorithms traverse all pixels equally
without considering their diverse contribution. To alleviate these problems,
this paper proposes the targeted attention attack (TAA) method for real world
road sign attack. Specifically, we have made the following contributions: (1)
we leverage the soft attention map to highlight those important pixels and skip
those zero-contributed areas - this also helps to generate natural
perturbations, (2) we design an efficient universal attack that optimizes a
single perturbation/noise based on a set of training images under the guidance
of the pre-trained attention map, (3) we design a simple objective function
that can be easily optimized, (4) we evaluate the effectiveness of TAA on real
world data sets. Experimental results validate that the TAA method improves the
attack successful rate (nearly 10%) and reduces the perturbation loss (about a
quarter) compared with the popular RP2 method. Additionally, our TAA also
provides good properties, e.g., transferability and generalization capability.
We provide code and data to ensure the reproducibility:
https://github.com/AdvAttack/RoadSignAttack.
- Abstract(参考訳): 現実の交通標識認識は、ディープニューラルネットワーク(DNN)に大きく依存している自動運転車を構築するための重要なステップである。
最近の研究では、DNNは驚くほど敵対的な例に影響を受けやすいことが示されている。
グラデーションベース攻撃、スコアベース攻撃、決定ベース攻撃、転送ベース攻撃など、敵の例を理解し、生成するための多くの攻撃手法が提案されている。
しかし,これらのアルゴリズムの多くは,(1) フレームごとの摂動を反復的に学習することは,高速走行車では現実的ではなく,(2) 最適化アルゴリズムは多種多様な寄与を考慮せずに全画素を均等に横断する。
この問題を軽減するため,本論文では,実世界の道路標識攻撃に対するターゲット・アテンション・アタック(taa)手法を提案する。
Specifically, we have made the following contributions: (1) we leverage the soft attention map to highlight those important pixels and skip those zero-contributed areas - this also helps to generate natural perturbations, (2) we design an efficient universal attack that optimizes a single perturbation/noise based on a set of training images under the guidance of the pre-trained attention map, (3) we design a simple objective function that can be easily optimized, (4) we evaluate the effectiveness of TAA on real world data sets.
実験の結果,TAA法は攻撃成功率(約10%)を向上し,RP2法と比較して摂動損失(約4分の1)を減少させることがわかった。
さらに、当社のTAAは、転送可能性や一般化能力など、優れた特性も提供しています。
再現性を保証するために、コードとデータを提供します。
関連論文リスト
- Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - Analyzing Robustness of the Deep Reinforcement Learning Algorithm in
Ramp Metering Applications Considering False Data Injection Attack and
Defense [0.0]
ランプメータリング(英語: Ramp metering)は、高速道路の本線への車両の走行を制御する行為である。
深部Q-Learningアルゴリズムは,ループ検出情報のみを入力として利用する。
モデルは、道路のジオメトリーやレイアウトに関わらず、ほぼすべてのランプ計測サイトに応用できる。
論文 参考訳(メタデータ) (2023-01-28T00:40:46Z) - Robust Trajectory Prediction against Adversarial Attacks [84.10405251683713]
ディープニューラルネットワーク(DNN)を用いた軌道予測は、自律運転システムにおいて不可欠な要素である。
これらの手法は敵の攻撃に対して脆弱であり、衝突などの重大な結果をもたらす。
本研究では,敵対的攻撃に対する軌道予測モデルを保護するための2つの重要な要素を同定する。
論文 参考訳(メタデータ) (2022-07-29T22:35:05Z) - Versatile Weight Attack via Flipping Limited Bits [68.45224286690932]
本研究では,展開段階におけるモデルパラメータを変更する新たな攻撃パラダイムについて検討する。
有効性とステルスネスの目標を考慮し、ビットフリップに基づく重み攻撃を行うための一般的な定式化を提供する。
SSA(Single sample attack)とTSA(Singr sample attack)の2例を報告した。
論文 参考訳(メタデータ) (2022-07-25T03:24:58Z) - A Hybrid Defense Method against Adversarial Attacks on Traffic Sign
Classifiers in Autonomous Vehicles [4.585587646404074]
敵対的攻撃は、ディープニューラルネットワーク(DNN)モデルに、自動運転車(AV)の誤った出力ラベルを予測させる。
本研究では,ハイブリッドディフェンス方式を用いたAV用レジリエントトラフィックサイン分類器を開発した。
本手法は, 攻撃シナリオの平均交通標識分類精度が99%, 攻撃シナリオの平均交通標識分類精度が88%であることを示す。
論文 参考訳(メタデータ) (2022-04-25T02:13:31Z) - Projective Ranking-based GNN Evasion Attacks [52.85890533994233]
グラフニューラルネットワーク(GNN)は、グラフ関連のタスクに対して、有望な学習方法を提供する。
GNNは敵の攻撃の危険にさらされている。
論文 参考訳(メタデータ) (2022-02-25T21:52:09Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - Progressive Defense Against Adversarial Attacks for Deep Learning as a
Service in Internet of Things [9.753864027359521]
一部のディープニューラルネットワーク(DNN)は、比較的小さいが逆方向の摂動を入力に追加することで容易に誤認することができる。
本稿では, 対人攻撃に対するプログレッシブ・ディフェンス(PDAAA)と呼ばれる防衛戦略を提案し, 対人画素変異を効果的かつ効果的に除去する。
その結果、モデルトレーニングのコストを平均50%削減しながら、最先端技術よりも優れています。
論文 参考訳(メタデータ) (2020-10-15T06:40:53Z) - Dirty Road Can Attack: Security of Deep Learning based Automated Lane
Centering under Physical-World Attack [38.3805893581568]
本研究では,物理世界の敵対的攻撃下での最先端のディープラーニングに基づくALCシステムの安全性について検討する。
安全クリティカルな攻撃目標と、新しいドメイン固有の攻撃ベクトル、汚い道路パッチで問題を定式化する。
実世界の走行トレースから80のシナリオを用いて実運用ALCに対する攻撃を評価した。
論文 参考訳(メタデータ) (2020-09-14T19:22:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。