論文の概要: ScaleCert: Scalable Certified Defense against Adversarial Patches with
Sparse Superficial Layers
- arxiv url: http://arxiv.org/abs/2110.14120v1
- Date: Wed, 27 Oct 2021 02:05:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-29 05:45:39.740871
- Title: ScaleCert: Scalable Certified Defense against Adversarial Patches with
Sparse Superficial Layers
- Title(参考訳): ScaleCert: 少ない表面層を持つ敵パッチに対するスケーラブルな認証防御
- Authors: Husheng Han, Kaidi Xu, Xing Hu, Xiaobing Chen, Ling Liang, Zidong Du,
Qi Guo, Yanzhi Wang, Yunji Chen
- Abstract要約: 本稿では,高解像度画像に対して高い堅牢性を実現するための認証された防御手法を提案する。
我々は、SINベースの圧縮技術を利用して、認証精度を大幅に向上する。
実験の結果,ImageNetデータセットの精度は36.3%から60.4%に向上した。
- 参考スコア(独自算出の注目度): 29.658969173796645
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial patch attacks that craft the pixels in a confined region of the
input images show their powerful attack effectiveness in physical environments
even with noises or deformations. Existing certified defenses towards
adversarial patch attacks work well on small images like MNIST and CIFAR-10
datasets, but achieve very poor certified accuracy on higher-resolution images
like ImageNet. It is urgent to design both robust and effective defenses
against such a practical and harmful attack in industry-level larger images. In
this work, we propose the certified defense methodology that achieves high
provable robustness for high-resolution images and largely improves the
practicality for real adoption of the certified defense. The basic insight of
our work is that the adversarial patch intends to leverage localized
superficial important neurons (SIN) to manipulate the prediction results.
Hence, we leverage the SIN-based DNN compression techniques to significantly
improve the certified accuracy, by reducing the adversarial region searching
overhead and filtering the prediction noises. Our experimental results show
that the certified accuracy is increased from 36.3% (the state-of-the-art
certified detection) to 60.4% on the ImageNet dataset, largely pushing the
certified defenses for practical use.
- Abstract(参考訳): 入力画像の限られた領域にピクセルを描画する敵パッチ攻撃は、ノイズや変形があっても物理的環境において強力な攻撃効果を示す。
既存の敵パッチ攻撃に対する認証された防御は、MNISTやCIFAR-10データセットのような小さなイメージではうまく機能するが、ImageNetのような高解像度画像では、非常に低い精度で達成できる。
業界レベルの大きな画像に対して、このような実用的かつ有害な攻撃に対して、堅牢かつ効果的な防御をデザインすることが急務である。
本研究では,高精細度画像の堅牢性を実現し,その実用性を大幅に向上させる認証防衛手法を提案する。
我々の研究の基本的な洞察は、敵のパッチが局所的な表面重要なニューロン(SIN)を利用して予測結果を操作することである。
そこで我々は,SINに基づくDNN圧縮技術を利用して,逆領域探索のオーバーヘッドを低減し,予測ノイズをフィルタリングすることにより,認証精度を大幅に向上する。
実験の結果、認証精度は、ImageNetデータセット上で36.3%(最先端の認証検出)から60.4%に向上し、認証された防御を実用化するために大きく推し進めた。
関連論文リスト
- Anomaly Unveiled: Securing Image Classification against Adversarial
Patch Attacks [3.6275442368775512]
敵対的パッチ攻撃は、ディープラーニングシステムの実践的な展開に重大な脅威をもたらす。
本稿では,画像情報の分布における逆パッチの異常としての挙動について検討する。
提案する防御機構は,DBSCANと呼ばれるクラスタリング技術を用いて,異常な画像セグメントを分離する。
論文 参考訳(メタデータ) (2024-02-09T08:52:47Z) - Adversarially-Aware Robust Object Detector [85.10894272034135]
本稿では,ロバスト検出器 (RobustDet) を提案する。
本モデルは, クリーン画像の検出能力を維持しながら, 傾きを効果的に解き, 検出堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2022-07-13T13:59:59Z) - Towards Practical Certifiable Patch Defense with Vision Transformer [34.00374565048962]
視覚変換器(ViT)を非ランダム化平滑化(DS)の枠組みに導入する。
実世界における効率的な推論と展開のために,我々は,オリジナルViTのグローバルな自己アテンション構造を,孤立バンド単位の自己アテンションに革新的に再構築する。
論文 参考訳(メタデータ) (2022-03-16T10:39:18Z) - PatchCleanser: Certifiably Robust Defense against Adversarial Patches
for Any Image Classifier [30.559585856170216]
画像分類モデルに対する逆パッチ攻撃は、局所化された制限された画像領域(すなわち、パッチ)に逆向きに作られたピクセルを注入することを目的としている。
我々はPatchCleanserを,任意の画像分類モデルと互換性のある敵パッチに対する堅牢な防御法として提案する。
我々は,ImageNet, ImageNette, CIFAR-10, CIFAR-100, SVHN, Flowers-102データセットに対する防御効果を広く評価した。
論文 参考訳(メタデータ) (2021-08-20T12:09:33Z) - Towards Adversarial Patch Analysis and Certified Defense against Crowd
Counting [61.99564267735242]
安全クリティカルな監視システムの重要性から、群衆のカウントは多くの注目を集めています。
近年の研究では、ディープニューラルネットワーク(DNN)の手法が敵の攻撃に弱いことが示されている。
群衆カウントモデルのロバスト性を評価するために,Momentumを用いた攻撃戦略としてAdversarial Patch Attackを提案する。
論文 参考訳(メタデータ) (2021-04-22T05:10:55Z) - Adversarial Examples Detection beyond Image Space [88.7651422751216]
摂動と予測信頼の間にはコンプライアンスが存在することが分かり、予測信頼の面から少数の摂動攻撃を検出するための指針となる。
本研究では,画像ストリームが画素アーティファクトに注目し,勾配ストリームが信頼度アーティファクトに対応する2ストリームアーキテクチャによる画像空間を超えた手法を提案する。
論文 参考訳(メタデータ) (2021-02-23T09:55:03Z) - Error Diffusion Halftoning Against Adversarial Examples [85.11649974840758]
敵対的な例には、深いニューラルネットワークを誤った予測にだますことができる慎重に作られた摂動が含まれます。
誤り拡散のハーフトン化に基づく新しい画像変換防御を提案し、逆転の例に対して防御するための逆転訓練と組み合わせます。
論文 参考訳(メタデータ) (2021-01-23T07:55:02Z) - Block-wise Image Transformation with Secret Key for Adversarially Robust
Defense [17.551718914117917]
提案する変換を実現するために,Pixel Shuffling, Bit Flipping, FFX Encryptionの3つのアルゴリズムを開発した。
CIFAR-10とImageNetのデータセット上で、ブラックボックスとホワイトボックスの両方を用いて実験を行った。
提案したディフェンスは,適応攻撃下においてもクリーン画像の精度を高い精度で達成する。
論文 参考訳(メタデータ) (2020-10-02T06:07:12Z) - PatchGuard: A Provably Robust Defense against Adversarial Patches via
Small Receptive Fields and Masking [46.03749650789915]
画像の制限領域内の画素を任意に修正することで、機械学習モデルの誤分類を誘発することを目的としている。
そこで我々はPatchGuardという汎用防衛フレームワークを提案する。このフレームワークは、局所的な敵パッチに対して高い清潔さを維持しつつ、高い堅牢性を達成できる。
論文 参考訳(メタデータ) (2020-05-17T03:38:34Z) - (De)Randomized Smoothing for Certifiable Defense against Patch Attacks [136.79415677706612]
我々は、所定の画像とパッチ攻撃サイズを保証する、パッチ攻撃に対する認証可能な防御を導入する。
本手法はランダム化スムースなロバスト性スキームの幅広いクラスに関係している。
その結果,CIFAR-10およびImageNetに対するパッチ攻撃に対する認証済みの防御技術が確立した。
論文 参考訳(メタデータ) (2020-02-25T08:39:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。