論文の概要: Towards Adversarial Patch Analysis and Certified Defense against Crowd
Counting
- arxiv url: http://arxiv.org/abs/2104.10868v1
- Date: Thu, 22 Apr 2021 05:10:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-23 13:55:35.394057
- Title: Towards Adversarial Patch Analysis and Certified Defense against Crowd
Counting
- Title(参考訳): 対人パッチ分析と群衆カウントに対する認定防御に向けて
- Authors: Qiming Wu, Zhikang Zou, Pan Zhou, Xiaoqing Ye, Binghui Wang, Ang Li
- Abstract要約: 安全クリティカルな監視システムの重要性から、群衆のカウントは多くの注目を集めています。
近年の研究では、ディープニューラルネットワーク(DNN)の手法が敵の攻撃に弱いことが示されている。
群衆カウントモデルのロバスト性を評価するために,Momentumを用いた攻撃戦略としてAdversarial Patch Attackを提案する。
- 参考スコア(独自算出の注目度): 61.99564267735242
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Crowd counting has drawn much attention due to its importance in
safety-critical surveillance systems. Especially, deep neural network (DNN)
methods have significantly reduced estimation errors for crowd counting
missions. Recent studies have demonstrated that DNNs are vulnerable to
adversarial attacks, i.e., normal images with human-imperceptible perturbations
could mislead DNNs to make false predictions. In this work, we propose a robust
attack strategy called Adversarial Patch Attack with Momentum (APAM) to
systematically evaluate the robustness of crowd counting models, where the
attacker's goal is to create an adversarial perturbation that severely degrades
their performances, thus leading to public safety accidents (e.g., stampede
accidents). Especially, the proposed attack leverages the extreme-density
background information of input images to generate robust adversarial patches
via a series of transformations (e.g., interpolation, rotation, etc.). We
observe that by perturbing less than 6\% of image pixels, our attacks severely
degrade the performance of crowd counting systems, both digitally and
physically. To better enhance the adversarial robustness of crowd counting
models, we propose the first regression model-based Randomized Ablation (RA),
which is more sufficient than Adversarial Training (ADT) (Mean Absolute Error
of RA is 5 lower than ADT on clean samples and 30 lower than ADT on adversarial
examples). Extensive experiments on five crowd counting models demonstrate the
effectiveness and generality of the proposed method. Code is available at
\url{https://github.com/harrywuhust2022/Adv-Crowd-analysis}.
- Abstract(参考訳): 群衆カウントは、安全クリティカルな監視システムの重要性から、多くの注目を集めている。
特に、ディープニューラルネットワーク(DNN)手法は、群衆カウントミッションにおける推定誤差を著しく削減している。
近年の研究では、DNNは敵対的攻撃に弱いことが示されている。
そこで本研究では,群集計数モデルのロバスト性を体系的に評価するために,apam(adversarial patch attack with momentum)と呼ばれるロバストな攻撃戦略を提案する。
特に,入力画像の極端に高密度な背景情報を利用して,一連の変換(補間,回転など)を通じて頑健な敵パッチを生成する。
我々は,画像画素の6\%未満を摂動させることで,デジタルおよび物理的に群衆カウントシステムの性能を著しく低下させることを観察した。
群集数モデルの対向ロバスト性を高めるために, 適応的トレーニング(ADT)よりも十分な回帰モデルに基づくRandomized Ablation (RA)を提案する(RAの平均絶対誤差は, クリーンサンプルではADTより5低く, 逆例ではADTより30低い)。
5つの群集カウントモデルに対する実験により,提案手法の有効性と一般性を示した。
コードは \url{https://github.com/harrywuhust2022/adv-crowd- analysis} で入手できる。
関連論文リスト
- Robust Overfitting Does Matter: Test-Time Adversarial Purification With FGSM [5.592360872268223]
防衛戦略は通常、特定の敵攻撃法のためにディープニューラルネットワーク(DNN)を訓練し、この種の敵攻撃に対する防御において優れた堅牢性を達成することができる。
しかしながら、不慣れな攻撃モダリティに関する評価を受けると、実証的な証拠はDNNの堅牢性の顕著な劣化を示す。
ほとんどの防衛方法は、DNNの敵の堅牢性を改善するために、クリーンな例の精度を犠牲にすることが多い。
論文 参考訳(メタデータ) (2024-03-18T03:54:01Z) - Wasserstein distributional robustness of neural networks [9.79503506460041]
ディープニューラルネットワークは敵攻撃(AA)に弱いことが知られている
画像認識タスクでは、元の小さな摂動によって画像が誤分類される可能性がある。
本稿では,Wassersteinの分散ロバスト最適化(DRO)技術を用いて問題を再検討し,新しいコントリビューションを得た。
論文 参考訳(メタデータ) (2023-06-16T13:41:24Z) - Consistent Valid Physically-Realizable Adversarial Attack against
Crowd-flow Prediction Models [4.286570387250455]
ディープラーニング(DL)モデルは、都市全体のクラウドフローパターンを効果的に学習することができる。
DLモデルは、目立たない逆境の摂動に対して不利に作用することが知られている。
論文 参考訳(メタデータ) (2023-03-05T13:30:25Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - Threat Model-Agnostic Adversarial Defense using Diffusion Models [14.603209216642034]
ディープニューラルネットワーク(DNN)は、敵攻撃として知られる、知覚できない悪意のある摂動に対して非常に敏感である。
ディープニューラルネットワーク(DNN)は、敵攻撃として知られる、知覚できない悪意のある摂動に対して非常に敏感である。
論文 参考訳(メタデータ) (2022-07-17T06:50:48Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Perceptual Adversarial Robustness: Defense Against Unseen Threat Models [58.47179090632039]
敵対的堅牢性の鍵となる課題は、人間の知覚を正確に数学的に特徴づけることの欠如である。
ニューラル・パーセプチュアル・脅威モデルの下で、我々は新しいパーセプチュアル・アタックとディフェンスを開発する。
NPTMは非常に広範であるため、知覚的攻撃に対する知覚的適応訓練(PAT)は、他の多くの種類の敵対的攻撃に対して堅牢性を与える。
論文 参考訳(メタデータ) (2020-06-22T22:40:46Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Reliable evaluation of adversarial robustness with an ensemble of
diverse parameter-free attacks [65.20660287833537]
本稿では,最適段差の大きさと目的関数の問題による障害を克服するPGD攻撃の2つの拡張を提案する。
そして、我々の新しい攻撃と2つの補完的な既存の攻撃を組み合わせることで、パラメータフリーで、計算に手頃な価格で、ユーザに依存しない攻撃のアンサンブルを形成し、敵の堅牢性をテストする。
論文 参考訳(メタデータ) (2020-03-03T18:15:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。