論文の概要: Benford's law: what does it say on adversarial images?
- arxiv url: http://arxiv.org/abs/2102.04615v1
- Date: Tue, 9 Feb 2021 02:50:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-10 15:21:05.692851
- Title: Benford's law: what does it say on adversarial images?
- Title(参考訳): ベンフォードの法則: 敵のイメージについては何と言うのか?
- Authors: Jo\~ao G. Zago, Fabio L. Baldissera, Eric A. Antonelo and Rodrigo T.
Saad
- Abstract要約: 自然画像と逆画像の統計的差異について検討する。
本稿では, 適切な画像変換と, 対角攻撃のクラスを用いて, 対角画像中の画素の先頭桁の分布がベンフォードの法則から逸脱していることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolutional neural networks (CNNs) are fragile to small perturbations in
the input images. These networks are thus prone to malicious attacks that
perturb the inputs to force a misclassification. Such slightly manipulated
images aimed at deceiving the classifier are known as adversarial images. In
this work, we investigate statistical differences between natural images and
adversarial ones. More precisely, we show that employing a proper image
transformation and for a class of adversarial attacks, the distribution of the
leading digit of the pixels in adversarial images deviates from Benford's law.
The stronger the attack, the more distant the resulting distribution is from
Benford's law. Our analysis provides a detailed investigation of this new
approach that can serve as a basis for alternative adversarial example
detection methods that do not need to modify the original CNN classifier
neither work on the raw high-dimensional pixels as features to defend against
attacks.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は入力画像の小さな摂動に対して脆弱である。
これらのネットワークは、入力を乱して誤分類を強制する悪意のある攻撃の傾向にある。
このような、分類器を欺くためのわずかに操作された画像は、逆像として知られる。
本研究では,自然画像と敵画像の統計的差異について検討する。
より正確には、適切な画像変換と対向攻撃のクラスを用いて、対向画像中の画素の先頭桁の分布がベンフォードの法則から逸脱していることを示す。
攻撃が強ければ強いほど、結果として生じる分布はベンフォードの法則から遠ざかる。
私たちの分析は、元のCNN分類器を変更する必要がない代替敵対的なサンプル検出方法の基礎として役立つことができるこの新しいアプローチの詳細な調査を提供し、攻撃から防御するための機能として生の高次元ピクセルで動作しません。
関連論文リスト
- Deep neural network loses attention to adversarial images [11.650381752104296]
敵アルゴリズムは様々なタスクにおいてニューラルネットワークに対して有効であることが示されている。
Pixelアタックの場合、乱れたピクセルがネットワークの注意を自分自身に呼び出すか、それらから注意を逸らすかを示す。
また,どちらの攻撃もサリエンシマップとアクティベーションマップに異なる影響を及ぼすことを示した。
論文 参考訳(メタデータ) (2021-06-10T11:06:17Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Error Diffusion Halftoning Against Adversarial Examples [85.11649974840758]
敵対的な例には、深いニューラルネットワークを誤った予測にだますことができる慎重に作られた摂動が含まれます。
誤り拡散のハーフトン化に基づく新しい画像変換防御を提案し、逆転の例に対して防御するための逆転訓練と組み合わせます。
論文 参考訳(メタデータ) (2021-01-23T07:55:02Z) - GreedyFool: Distortion-Aware Sparse Adversarial Attack [138.55076781355206]
現代のディープニューラルネットワーク(DNN)は、敵のサンプルに対して脆弱である。
スパース逆数サンプルは、数ピクセルだけを摂動させることでターゲットモデルを騙すことができる。
GreedyFoolと呼ばれる2段階の歪みを考慮したグリーディ法を提案する。
論文 参考訳(メタデータ) (2020-10-26T17:59:07Z) - Shape Defense Against Adversarial Attacks [47.64219291655723]
人間は物体を認識するために形状情報に大きく依存している。逆に、畳み込みニューラルネットワーク(CNN)はテクスチャに偏っている。
本稿では, 形状バイアスをCNNに組み込んで, 頑健性を向上させる方法について検討する。
2つのアルゴリズムが提案され、エッジが適度な知覚不能な摂動に不変であるという観測に基づいている。
論文 参考訳(メタデータ) (2020-08-31T03:23:59Z) - Evaluating a Simple Retraining Strategy as a Defense Against Adversarial
Attacks [17.709146615433458]
我々は、KNNのような単純なアルゴリズムが、再トレーニングに必要な逆画像のラベルを決定するためにどのように使用できるかを示す。
CIFAR-10とTinyImageNetという2つの標準データセットで結果を示す。
論文 参考訳(メタデータ) (2020-07-20T07:49:33Z) - Anomaly Detection-Based Unknown Face Presentation Attack Detection [74.4918294453537]
異常検出に基づくスプーフ攻撃検出は、顔提示攻撃検出の最近の進歩である。
本稿では,異常検出に基づくスプーフ攻撃検出のためのディープラーニングソリューションを提案する。
提案手法はCNNの表現学習能力の恩恵を受け,fPADタスクの優れた特徴を学習する。
論文 参考訳(メタデータ) (2020-07-11T21:20:55Z) - Towards Achieving Adversarial Robustness by Enforcing Feature
Consistency Across Bit Planes [51.31334977346847]
我々は、高ビット平面の情報に基づいて粗い印象を形成するためにネットワークを訓練し、低ビット平面を用いて予測を洗練させる。
異なる量子化画像間で学習した表現に一貫性を付与することにより、ネットワークの対角的ロバスト性が大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-04-01T09:31:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。