論文の概要: Exploiting the Sensitivity of $L_2$ Adversarial Examples to
Erase-and-Restore
- arxiv url: http://arxiv.org/abs/2001.00116v2
- Date: Sat, 12 Dec 2020 23:48:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-16 09:18:20.025543
- Title: Exploiting the Sensitivity of $L_2$ Adversarial Examples to
Erase-and-Restore
- Title(参考訳): エラセ・アンド・レストアの逆例による$L_2$の感度の爆発
- Authors: Fei Zuo, Qiang Zeng
- Abstract要約: カルリーニとワグナーの敵対的摂動は最も効果的だが検出しにくい攻撃である。
本稿では,新たなAE検出手法であるErase-and-Restore(E&R)を提案する。
CIFAR-10とImageNetの2つの画像データセットで実施された実験では、E&Rは$L$ AEsの98%以上を検出でき、良質な画像に対する偽陽性率は極めて低い。
- 参考スコア(独自算出の注目度): 5.4892242325373175
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: By adding carefully crafted perturbations to input images, adversarial
examples (AEs) can be generated to mislead neural-network-based image
classifiers. $L_2$ adversarial perturbations by Carlini and Wagner (CW) are
among the most effective but difficult-to-detect attacks. While many
countermeasures against AEs have been proposed, detection of adaptive CW-$L_2$
AEs is still an open question. We find that, by randomly erasing some pixels in
an $L_2$ AE and then restoring it with an inpainting technique, the AE, before
and after the steps, tends to have different classification results, while a
benign sample does not show this symptom. We thus propose a novel AE detection
technique, Erase-and-Restore (E&R), that exploits the intriguing sensitivity of
$L_2$ attacks. Experiments conducted on two popular image datasets, CIFAR-10
and ImageNet, show that the proposed technique is able to detect over 98% of
$L_2$ AEs and has a very low false positive rate on benign images. The
detection technique exhibits high transferability: a detection system trained
using CW-$L_2$ AEs can accurately detect AEs generated using another $L_2$
attack method. More importantly, our approach demonstrates strong resilience to
adaptive $L_2$ attacks, filling a critical gap in AE detection. Finally, we
interpret the detection technique through both visualization and
quantification.
- Abstract(参考訳): 入力画像に注意深い摂動を加えることで、ニューラルネットワークベースの画像分類器を誤解させるような逆例(AE)を生成することができる。
l_2$ adversarial perturbations by carlini and wagner (cw) は最も効果的だが検出が難しい攻撃である。
AEに対する多くの対策が提案されているが、適応的なCW-$L_2$ AEsの検出は未解決の問題である。
l_2$ ae でいくつかのピクセルをランダムに消去し、塗装技法で復元することで、ステップの前後に ae は異なる分類結果を持つ傾向にあり、良性サンプルはこの症状を示さない。
そこで我々は,$l_2$攻撃の興味深い感度を利用する新しいae検出手法であるe&rを提案する。
CIFAR-10とImageNetの2つの画像データセットを用いて行った実験により、提案手法は$L_2$AEsの98%以上を検出でき、良性画像に対する偽陽性率は極めて低いことが示された。
CW-$L_2$ AEsでトレーニングされた検出システムは、別の$L_2$攻撃法で生成されたAEを正確に検出することができる。
さらに,AE検出において重要なギャップを埋めるため,適応的な$L_2$攻撃に対して強いレジリエンスを示す。
最後に,可視化と定量化の両面で検出手法を解釈する。
関連論文リスト
- AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - Threatening Patch Attacks on Object Detection in Optical Remote Sensing
Images [55.09446477517365]
自然画像における物体検出における高度なパッチアタック(PA)は、ディープニューラルネットワークに基づく手法における大きな安全性の脆弱性を指摘した。
我々は,TPAと呼ばれる視覚的品質の低下を伴わない,より危険度の高いPAを提案する。
我々の知る限りでは、これがO-RSIにおけるオブジェクト検出におけるPAの研究の最初の試みであり、この研究が読者にこのトピックの研究に興味を持たせることを願っている。
論文 参考訳(メタデータ) (2023-02-13T02:35:49Z) - Be Your Own Neighborhood: Detecting Adversarial Example by the
Neighborhood Relations Built on Self-Supervised Learning [64.78972193105443]
本稿では,予測に有効な新しいAE検出フレームワークを提案する。
AEの異常な関係と拡張バージョンを区別して検出を行う。
表現を抽出し、ラベルを予測するために、既製の自己監視学習(SSL)モデルが使用される。
論文 参考訳(メタデータ) (2022-08-31T08:18:44Z) - Detecting and Recovering Adversarial Examples from Extracting Non-robust
and Highly Predictive Adversarial Perturbations [15.669678743693947]
敵の例(AE)は、ターゲットモデルを騙すために悪質に設計されている。
ディープニューラルネットワーク(DNN)は、敵の例に対して脆弱であることが示されている。
本稿では,被害者モデルに問い合わせることができないモデルフリーなAE検出手法を提案する。
論文 参考訳(メタデータ) (2022-06-30T08:48:28Z) - Do autoencoders need a bottleneck for anomaly detection? [78.24964622317634]
アイデンティティ関数を学習すると、異常検出にAEは役に立たない。
本研究では,非ボツルネック型AEの値について検討する。
無限大のAEを非ボトルネック型AEの極端な例として提案する。
論文 参考訳(メタデータ) (2022-02-25T11:57:58Z) - Frequency Centric Defense Mechanisms against Adversarial Examples [1.0650780147044159]
Adversarial Example (AE) は、入力画像に小さな摂動を導入することで、畳み込みニューラルネットワークを騙すことを目的としている。
対向検知器を訓練し、対向効果を認知させることにより、防御を2つの方法で実証する。
論文 参考訳(メタデータ) (2021-10-26T18:03:38Z) - MixDefense: A Defense-in-Depth Framework for Adversarial Example
Detection Based on Statistical and Semantic Analysis [14.313178290347293]
AE検出のための多層ディフェンス・イン・ディープス・フレームワーク(MixDefense)を提案する。
入力から抽出した雑音の特徴を利用して、自然画像と改ざん画像の統計的差異を抽出し、AE検出を行う。
提案したMixDefenseソリューションは,既存のAE検出技術よりもかなり優れていることを示す。
論文 参考訳(メタデータ) (2021-04-20T15:57:07Z) - Detection of Iterative Adversarial Attacks via Counter Attack [4.549831511476249]
ディープニューラルネットワーク(DNN)は、非構造化データを処理する強力なツールであることが証明されている。
画像のような高次元データの場合、それらは本質的に敵対的な攻撃に対して脆弱である。
本研究では、CW攻撃が検出器自体として使用できるという数学的証明を概説する。
論文 参考訳(メタデータ) (2020-09-23T21:54:36Z) - Anomaly Detection with Convolutional Autoencoders for Fingerprint
Presentation Attack Detection [11.879849130630406]
提示攻撃検出(PAD)法は、ボナファイド被検体由来のサンプルと、提示攻撃装置(PAI)由来のサンプルとを判定するために用いられる。
短波長赤外領域で捕獲されたボナファイドサンプル(すなわち1クラス)にのみ訓練されたオートエンコーダ(AE)に基づく新しいPAD手法を提案する。
論文 参考訳(メタデータ) (2020-08-18T15:33:41Z) - Anomaly Detection-Based Unknown Face Presentation Attack Detection [74.4918294453537]
異常検出に基づくスプーフ攻撃検出は、顔提示攻撃検出の最近の進歩である。
本稿では,異常検出に基づくスプーフ攻撃検出のためのディープラーニングソリューションを提案する。
提案手法はCNNの表現学習能力の恩恵を受け,fPADタスクの優れた特徴を学習する。
論文 参考訳(メタデータ) (2020-07-11T21:20:55Z) - Detection as Regression: Certified Object Detection by Median Smoothing [50.89591634725045]
この研究は、ランダム化平滑化による認定分類の最近の進歩によって動機付けられている。
我々は、$ell$-bounded攻撃に対するオブジェクト検出のための、最初のモデル非依存、トレーニング不要、認定された防御条件を得る。
論文 参考訳(メタデータ) (2020-07-07T18:40:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。