論文の概要: Efficient detection of adversarial images
- arxiv url: http://arxiv.org/abs/2007.04564v1
- Date: Thu, 9 Jul 2020 05:35:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 04:06:52.218092
- Title: Efficient detection of adversarial images
- Title(参考訳): 対向画像の効率的な検出
- Authors: Darpan Kumar Yadav, Kartik Mundra, Rahul Modpur, Arpan Chattopadhyay
and Indra Narayan Kar
- Abstract要約: 画像の画素値は外部攻撃者によって修正されるため、人間の目にはほとんど見えない。
本稿では,修正画像の検出を容易にする新しい前処理手法を提案する。
このアルゴリズムの適応バージョンでは、ランダムな数の摂動が適応的に選択される。
- 参考スコア(独自算出の注目度): 2.6249027950824506
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, detection of deception attack on deep neural network (DNN)
based image classification in autonomous and cyber-physical systems is
considered. Several studies have shown the vulnerability of DNN to malicious
deception attacks. In such attacks, some or all pixel values of an image are
modified by an external attacker, so that the change is almost invisible to the
human eye but significant enough for a DNN-based classifier to misclassify it.
This paper first proposes a novel pre-processing technique that facilitates the
detection of such modified images under any DNN-based image classifier as well
as the attacker model. The proposed pre-processing algorithm involves a certain
combination of principal component analysis (PCA)-based decomposition of the
image, and random perturbation based detection to reduce computational
complexity. Next, an adaptive version of this algorithm is proposed where a
random number of perturbations are chosen adaptively using a doubly-threshold
policy, and the threshold values are learnt via stochastic approximation in
order to minimize the expected number of perturbations subject to constraints
on the false alarm and missed detection probabilities. Numerical experiments
show that the proposed detection scheme outperforms a competing algorithm while
achieving reasonably low computational complexity.
- Abstract(参考訳): 本稿では,自律型およびサイバー物理システムにおけるディープニューラルネットワーク(DNN)に基づく画像分類による偽造攻撃の検出について考察する。
いくつかの研究は、悪意のある詐欺攻撃に対するDNNの脆弱性を示している。
このような攻撃では、画像の画素値の一部または全ては外部攻撃者によって修正されるため、変更はほとんど人間の目では見えないが、DNNベースの分類器がそれを誤分類するには十分である。
本稿では,DNNベースの画像分類器とアタッカーモデルを用いて,このような修正画像の検出を容易にする新しい前処理手法を提案する。
提案する前処理アルゴリズムは、主成分分析(pca)に基づく画像の分解とランダム摂動に基づく検出を組み合わせて計算複雑性を低減する。
次に、このアルゴリズムの適応バージョンを提案し、二重閾値ポリシーを用いてランダムな数の摂動を適応的に選択し、そのしきい値が確率近似によって学習され、誤報や検出確率の欠落に制約された摂動の期待数を最小化する。
数値実験により,提案手法は計算複雑性を十分低く抑えながら,競合するアルゴリズムより優れていることが示された。
関連論文リスト
- Tailoring Adversarial Attacks on Deep Neural Networks for Targeted Class Manipulation Using DeepFool Algorithm [6.515472477685614]
敵対的攻撃に対するディープニューラルネットワーク(DNN)の感受性は、多くのアプリケーションにまたがる信頼性を損なう。
本稿では,DeepFoolの進化であるET DeepFoolアルゴリズムを紹介する。
我々の実証的研究は、画像の整合性を維持する上で、この洗練されたアプローチが優れていることを示すものである。
論文 参考訳(メタデータ) (2023-10-18T18:50:39Z) - RCDN -- Robust X-Corner Detection Algorithm based on Advanced CNN Model [3.580983453285039]
複数の干渉下で入力に対して高いサブピクセル精度を維持することができる新しい検出アルゴリズムを提案する。
アルゴリズム全体は粗い戦略を採用しており、Xコーン検出ネットワークと3つの後処理技術を含んでいる。
実画像および合成画像の評価は,提案アルゴリズムが他の一般的な手法よりも検出率,サブピクセル精度,ロバスト性が高いことを示す。
論文 参考訳(メタデータ) (2023-07-07T10:40:41Z) - Guided Diffusion Model for Adversarial Purification [103.4596751105955]
敵攻撃は、様々なアルゴリズムやフレームワークでディープニューラルネットワーク(DNN)を妨害する。
本稿では,GDMP ( Guided diffusion model for purification) と呼ばれる新しい精製法を提案する。
様々なデータセットにわたる包括的実験において,提案したGDMPは,敵対的攻撃によって引き起こされた摂動を浅い範囲に減少させることを示した。
論文 参考訳(メタデータ) (2022-05-30T10:11:15Z) - Residue-Based Natural Language Adversarial Attack Detection [1.4213973379473654]
本研究は、逆例を識別する「レジデント」に基づく簡易な文埋め込み型検出器を提案する。
多くのタスクにおいて、移植された画像ドメイン検出器と、最先端のNLP特定検出器の状態を上回ります。
論文 参考訳(メタデータ) (2022-04-17T17:47:47Z) - Meta Adversarial Perturbations [66.43754467275967]
メタ逆境摂動(MAP)の存在を示す。
MAPは1段階の上昇勾配更新によって更新された後、自然画像を高い確率で誤分類する。
これらの摂動は画像に依存しないだけでなく、モデルに依存しないものであり、単一の摂動は見えないデータポイントと異なるニューラルネットワークアーキテクチャにまたがってうまく一般化される。
論文 参考訳(メタデータ) (2021-11-19T16:01:45Z) - Hierarchical Convolutional Neural Network with Feature Preservation and
Autotuned Thresholding for Crack Detection [5.735035463793008]
ドローンの画像はインフラ表面の欠陥の自動検査にますます使われている。
本稿では,階層型畳み込みニューラルネットワークを用いた深層学習手法を提案する。
提案手法は, 道路, 橋, 舗装の表面ひび割れの同定に応用されている。
論文 参考訳(メタデータ) (2021-04-21T13:07:58Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z) - Bayesian Optimization with Machine Learning Algorithms Towards Anomaly
Detection [66.05992706105224]
本稿では,ベイズ最適化手法を用いた効果的な異常検出フレームワークを提案する。
ISCX 2012データセットを用いて検討したアルゴリズムの性能を評価する。
実験結果から, 精度, 精度, 低コストアラームレート, リコールの観点から, 提案手法の有効性が示された。
論文 参考訳(メタデータ) (2020-08-05T19:29:35Z) - Determining Sequence of Image Processing Technique (IPT) to Detect
Adversarial Attacks [4.431353523758957]
本稿では,悪意のある入力を検出するための画像処理手法(IPTS)を自動決定する進化的手法を提案する。
遺伝的アルゴリズム(GA)に基づく検出フレームワークを開発し、最適なIPTSを見つける。
テスト時に動的に選択されるIPTSのセットは、敵攻撃のフィルタとして機能する。
論文 参考訳(メタデータ) (2020-07-01T08:59:14Z) - RAIN: A Simple Approach for Robust and Accurate Image Classification
Networks [156.09526491791772]
既存の敵防衛手法の大部分は、予測精度を犠牲にして堅牢性を実現することが示されている。
本稿では,ロバストおよび高精度画像分類N(RAIN)と呼ぶ新しい前処理フレームワークを提案する。
RAINは入力に対してランダム化を適用して、モデルフォワード予測パスと後方勾配パスの関係を壊し、モデルロバスト性を改善する。
STL10 と ImageNet のデータセットを用いて、様々な種類の敵攻撃に対する RAIN の有効性を検証する。
論文 参考訳(メタデータ) (2020-04-24T02:03:56Z) - GraN: An Efficient Gradient-Norm Based Detector for Adversarial and
Misclassified Examples [77.99182201815763]
ディープニューラルネットワーク(DNN)は、敵対的な例やその他のデータ摂動に対して脆弱である。
GraNは、どのDNNにも容易に適応できる時間およびパラメータ効率の手法である。
GraNは多くの問題セットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-04-20T10:09:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。