論文の概要: Revisiting Physical-World Adversarial Attack on Traffic Sign Recognition: A Commercial Systems Perspective
- arxiv url: http://arxiv.org/abs/2409.09860v1
- Date: Sun, 15 Sep 2024 20:48:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-17 17:10:28.398565
- Title: Revisiting Physical-World Adversarial Attack on Traffic Sign Recognition: A Commercial Systems Perspective
- Title(参考訳): 交通標識認識における身体的・世界的敵対的攻撃の再検討:商用システムの視点から
- Authors: Ningfei Wang, Shaoyuan Xie, Takami Sato, Yunpeng Luo, Kaidi Xu, Qi Alfred Chen,
- Abstract要約: 交通信号認識(TSR)は安全かつ正確な運転自動化に不可欠である。
最近の研究により、物理世界の敵攻撃に対するTSRモデルの一般的な脆弱性が明らかになった。
商用TSRシステムに対する物理世界の敵攻撃を大規模に測定する。
- 参考スコア(独自算出の注目度): 34.3816790144084
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traffic Sign Recognition (TSR) is crucial for safe and correct driving automation. Recent works revealed a general vulnerability of TSR models to physical-world adversarial attacks, which can be low-cost, highly deployable, and capable of causing severe attack effects such as hiding a critical traffic sign or spoofing a fake one. However, so far existing works generally only considered evaluating the attack effects on academic TSR models, leaving the impacts of such attacks on real-world commercial TSR systems largely unclear. In this paper, we conduct the first large-scale measurement of physical-world adversarial attacks against commercial TSR systems. Our testing results reveal that it is possible for existing attack works from academia to have highly reliable (100\%) attack success against certain commercial TSR system functionality, but such attack capabilities are not generalizable, leading to much lower-than-expected attack success rates overall. We find that one potential major factor is a spatial memorization design that commonly exists in today's commercial TSR systems. We design new attack success metrics that can mathematically model the impacts of such design on the TSR system-level attack success, and use them to revisit existing attacks. Through these efforts, we uncover 7 novel observations, some of which directly challenge the observations or claims in prior works due to the introduction of the new metrics.
- Abstract(参考訳): 交通信号認識(TSR)は安全かつ正確な運転自動化に不可欠である。
近年の研究では、TSRモデルの物理的世界の敵攻撃に対する一般的な脆弱性が明らかにされており、低コストで、高度に展開可能であり、重要な交通標識を隠蔽したり、偽のものを偽造したりといった深刻な攻撃効果を生じさせる可能性がある。
しかしながら、既存の研究は一般に学術的なTSRモデルに対する攻撃効果の評価のみを考慮しており、実際の商用TSRシステムに対する攻撃の影響はほとんど不明である。
本稿では,商用TSRシステムに対する物理世界の敵対的攻撃を大規模に測定する。
テストの結果,既存の学界からの攻撃は,特定の商用TSRシステム機能に対して高い信頼性(100\%)の攻撃成功を達成できるが,そのような攻撃能力は一般化不可能であり,全体として予測されるよりもはるかに低い攻撃成功率が得られることがわかった。
主要な要因の1つは、今日の商用TSRシステムによく見られる空間記憶設計である。
我々は、TSRシステムレベルの攻撃成功に対するそのような設計の影響を数学的にモデル化できる新しい攻撃成功指標を設計し、既存の攻撃を再検討する。
これらの取り組みを通じて、7つの新しい観測結果が明らかとなり、そのうちのいくつかは、新しいメトリクスの導入による先行研究の観察や主張に直接挑戦するものである。
関連論文リスト
- Eroding Trust In Aerial Imagery: Comprehensive Analysis and Evaluation
Of Adversarial Attacks In Geospatial Systems [24.953306643091484]
地理空間システムにおける敵攻撃の信頼性を低下させる方法を示す。
高品質なSpaceNetデータセットを用いたリモートセンシングシステムに対する脅威を実証的に示す。
論文 参考訳(メタデータ) (2023-12-12T16:05:12Z) - OASIS: Offsetting Active Reconstruction Attacks in Federated Learning [14.644814818768172]
Federated Learning(FL)は、ユーザプライバシ保護の可能性に関して、大きな注目を集めている。
近年の研究では、FLプロトコルがアクティブリコンストラクションアタックによって容易に損なわれることが示されている。
本稿では,画像拡張に基づく防御機構を提案し,能動的再建攻撃を効果的に防止する。
論文 参考訳(メタデータ) (2023-11-23T00:05:17Z) - Physical Adversarial Attack meets Computer Vision: A Decade Survey [55.38113802311365]
本稿では,身体的敵意攻撃の概要を概観する。
本研究は,身体的敵意攻撃の性能を体系的に評価する第一歩を踏み出した。
提案する評価基準であるhiPAAは6つの視点から構成される。
論文 参考訳(メタデータ) (2022-09-30T01:59:53Z) - Watch What You Pretrain For: Targeted, Transferable Adversarial Examples
on Self-Supervised Speech Recognition models [27.414693266500603]
攻撃対象の敵攻撃は、自動音声認識システムに攻撃テキストを出力させる音声サンプルを生成する。
近年の研究では、大きなASRモデルに対する転送性は非常に難しいことが示されている。
現代のASRアーキテクチャ、特にセルフ・スーパーバイザード・ラーニングに基づくアーキテクチャは、実際にトランスファービリティーに対して脆弱であることを示す。
論文 参考訳(メタデータ) (2022-09-17T15:01:26Z) - On Trace of PGD-Like Adversarial Attacks [77.75152218980605]
敵対的攻撃は、ディープラーニングアプリケーションに対する安全性とセキュリティ上の懸念を引き起こす。
モデルの勾配一貫性を反映した適応応答特性(ARC)特性を構築する。
私たちの方法は直感的で、軽量で、非侵襲的で、データ不要です。
論文 参考訳(メタデータ) (2022-05-19T14:26:50Z) - Shadows can be Dangerous: Stealthy and Effective Physical-world
Adversarial Attack by Natural Phenomenon [79.33449311057088]
我々は、非常に一般的な自然現象であるシャドーによって摂動が生じる新しい種類の光対角運動例について研究する。
我々は,シミュレーション環境と実環境の両方において,この新たな攻撃の有効性を広く評価した。
論文 参考訳(メタデータ) (2022-03-08T02:40:18Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - Adversarial Attack Attribution: Discovering Attributable Signals in
Adversarial ML Attacks [0.7883722807601676]
自動運転車やML-as-a-serviceのような生産システムでさえ、逆の入力の影響を受けやすい。
摂動入力は、攻撃を生成するために使われるメソッドに起因できるだろうか?
敵対攻撃属性の概念を導入し、敵対攻撃における攻撃可能信号の発見可能性を調べるための単純な教師付き学習実験フレームワークを作成する。
論文 参考訳(メタデータ) (2021-01-08T08:16:41Z) - Measurement-driven Security Analysis of Imperceptible Impersonation
Attacks [54.727945432381716]
本稿では,ディープニューラルネットワークを用いた顔認識システムの実用性について検討する。
皮膚の色,性別,年齢などの要因が,特定の標的に対する攻撃を行う能力に影響を及ぼすことを示す。
また,攻撃者の顔のさまざまなポーズや視点に対して堅牢なユニバーサルアタックを構築する可能性についても検討した。
論文 参考訳(メタデータ) (2020-08-26T19:27:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。