論文の概要: Effective and Robust Detection of Adversarial Examples via
Benford-Fourier Coefficients
- arxiv url: http://arxiv.org/abs/2005.05552v1
- Date: Tue, 12 May 2020 05:20:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-03 19:18:31.198970
- Title: Effective and Robust Detection of Adversarial Examples via
Benford-Fourier Coefficients
- Title(参考訳): Benford-Fourier係数による逆例の有効かつロバストな検出
- Authors: Chengcheng Ma, Baoyuan Wu, Shibiao Xu, Yanbo Fan, Yong Zhang, Xiaopeng
Zhang, Zhifeng Li
- Abstract要約: アドリラルな例は、ディープニューラルネットワーク(DNN)に対する深刻な脅威としてよく知られている。
本研究では, 一般ガウス分布(GGD)に従えば, 対向例と良性例の両方に対して, 一つのモデルの出力と内部応答が従うという仮定に基づいて, 対向例の検出について検討する。
我々は,ベンフォード・フーリエ係数(MBF)の大きさを利用して,逆方向検出のための形状因子を用いて識別的特徴を構築することを提案する。
- 参考スコア(独自算出の注目度): 40.9343499298864
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial examples have been well known as a serious threat to deep neural
networks (DNNs). In this work, we study the detection of adversarial examples,
based on the assumption that the output and internal responses of one DNN model
for both adversarial and benign examples follow the generalized Gaussian
distribution (GGD), but with different parameters (i.e., shape factor, mean,
and variance). GGD is a general distribution family to cover many popular
distributions (e.g., Laplacian, Gaussian, or uniform). It is more likely to
approximate the intrinsic distributions of internal responses than any specific
distribution. Besides, since the shape factor is more robust to different
databases rather than the other two parameters, we propose to construct
discriminative features via the shape factor for adversarial detection,
employing the magnitude of Benford-Fourier coefficients (MBF), which can be
easily estimated using responses. Finally, a support vector machine is trained
as the adversarial detector through leveraging the MBF features. Extensive
experiments in terms of image classification demonstrate that the proposed
detector is much more effective and robust on detecting adversarial examples of
different crafting methods and different sources, compared to state-of-the-art
adversarial detection methods.
- Abstract(参考訳): 敵対的な例はディープニューラルネットワーク(DNN)に対する深刻な脅威としてよく知られている。
本研究は,DNNモデルが一般化されたガウス分布 (GGD) に従っているが,異なるパラメータ (形状因子,平均,および分散) でDNNモデルの出力と内部応答が従うという仮定に基づいて,逆例の検出について検討する。
GGDは多くのポピュラーな分布(例えばラプラシア語、ガウス語、制服)をカバーする一般的な分布ファミリーである。
内部応答の内在分布を、特定の分布よりも近似する可能性が高い。
さらに、形状係数は他の2つのパラメータよりもデータベースに頑健であるため、逆方向検出のための形状係数を用いて識別的特徴を構築することを提案し、反応を用いて容易に推定できるベンフォード・フーリエ係数(MBF)の大きさを用いる。
そして、MBF特性を利用して、支持ベクトルマシンを対向検出器として訓練する。
画像分類の観点からの広範な実験により,提案手法は,最先端の敵検出法と比較して,異なる作法や異なるソースの敵例の検出にはるかに効果的で頑健であることが判明した。
関連論文リスト
- Indiscriminate Disruption of Conditional Inference on Multivariate Gaussians [60.22542847840578]
敵対的機械学習の進歩にもかかわらず、敵対者の存在下でのガウスモデルに対する推論は特に過小評価されている。
我々は,意思決定者の条件推論とその後の行動の妨害を希望する自己関心のある攻撃者について,一組の明らかな変数を乱すことで検討する。
検出を避けるため、攻撃者は、破損した証拠の密度によって可否が決定される場合に、攻撃が可否を示すことを望んでいる。
論文 参考訳(メタデータ) (2024-11-21T17:46:55Z) - Implicit Variational Inference for High-Dimensional Posteriors [7.924706533725115]
変分推論において、ベイズモデルの利点は、真の後続分布を正確に捉えることに依存する。
複雑な多重モーダルおよび相関後部を近似するのに適した暗黙分布を特定するニューラルサンプリング手法を提案する。
提案手法では,ニューラルネットワークを局所的に線形化することにより,暗黙分布を用いた近似推論の新たなバウンダリを導入する。
論文 参考訳(メタデータ) (2023-10-10T14:06:56Z) - Adversarial Examples Detection with Enhanced Image Difference Features
based on Local Histogram Equalization [20.132066800052712]
本稿では,高頻度情報強調戦略に基づく逆例検出フレームワークを提案する。
このフレームワークは、敵の例と通常の例との特徴的差異を効果的に抽出し、増幅することができる。
論文 参考訳(メタデータ) (2023-05-08T03:14:01Z) - UQGAN: A Unified Model for Uncertainty Quantification of Deep
Classifiers trained via Conditional GANs [9.496524884855559]
本稿では,GAN(Generative Adversarial Network)に基づく画像分類におけるディープニューラルネットワークの不確実性の定量化手法を提案する。
GAN の生成した OoD の例で分散データの全体を保護する代わりに,条件付き GAN によって生成されたクラスを別々に保護する。
特に、最先端のGAN学習に基づく分類器のOoD検出とFP検出性能を改善した。
論文 参考訳(メタデータ) (2022-01-31T14:42:35Z) - Adversarial Examples Detection with Bayesian Neural Network [57.185482121807716]
本稿では,ランダムな成分が予測器の滑らかさを向上できるという観測によって動機づけられた敵の例を検出するための新しい枠組みを提案する。
本稿では,BATer を略した新しいベイズ対向型サンプル検出器を提案し,対向型サンプル検出の性能を向上させる。
論文 参考訳(メタデータ) (2021-05-18T15:51:24Z) - Beating Attackers At Their Own Games: Adversarial Example Detection
Using Adversarial Gradient Directions [16.993439721743478]
提案手法は, 対向勾配の方向が対向空間を特徴づける上で重要な役割を担っていることを示す。
CIFAR-10とImageNetの2つの異なるデータベースで実施された実験により、提案手法は5つの異なる攻撃に対して97.9%と98.6%のAUC-ROCを達成した。
論文 参考訳(メタデータ) (2020-12-31T01:12:24Z) - Learning to Separate Clusters of Adversarial Representations for Robust
Adversarial Detection [50.03939695025513]
本稿では,最近導入された非破壊的特徴を動機とした新しい確率的対向検出器を提案する。
本稿では,非ロバスト特徴を逆例の共通性と考え,その性質に対応する表現空間におけるクラスターの探索が可能であることを推定する。
このアイデアは、別のクラスタ内の逆表現の確率推定分布を導出し、その分布を確率に基づく逆検出器として活用する。
論文 参考訳(メタデータ) (2020-12-07T07:21:18Z) - Shaping Deep Feature Space towards Gaussian Mixture for Visual
Classification [74.48695037007306]
視覚分類のためのディープニューラルネットワークのためのガウス混合損失関数(GM)を提案する。
分類マージンと可能性正規化により、GM損失は高い分類性能と特徴分布の正確なモデリングの両方を促進する。
提案したモデルは、追加のトレーニング可能なパラメータを使わずに、簡単かつ効率的に実装できる。
論文 参考訳(メタデータ) (2020-11-18T03:32:27Z) - Toward Scalable and Unified Example-based Explanation and Outlier
Detection [128.23117182137418]
我々は,試行錯誤の予測に例ベースの説明を与えることのできる,プロトタイプベースの学生ネットワークのより広範な採用を論じる。
類似カーネル以外のプロトタイプベースのネットワークは,分類精度を損なうことなく,有意義な説明と有望な外乱検出結果が得られることを示す。
論文 参考訳(メタデータ) (2020-11-11T05:58:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。