論文の概要: AdvJND: Generating Adversarial Examples with Just Noticeable Difference
- arxiv url: http://arxiv.org/abs/2002.00179v2
- Date: Tue, 23 Jun 2020 09:34:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-05 01:21:05.231304
- Title: AdvJND: Generating Adversarial Examples with Just Noticeable Difference
- Title(参考訳): AdvJND: 注目すべき違いのある逆例の生成
- Authors: Zifei Zhang, Kai Qiao, Lingyun Jiang, Linyuan Wang, and Bin Yan
- Abstract要約: 例に小さな摂動を加えると、優れたパフォーマンスモデルが工芸品の例を誤って分類する。
我々のAdvJNDアルゴリズムが生成した逆例は、元の入力に類似した分布を生成する。
- 参考スコア(独自算出の注目度): 3.638233924421642
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Compared with traditional machine learning models, deep neural networks
perform better, especially in image classification tasks. However, they are
vulnerable to adversarial examples. Adding small perturbations on examples
causes a good-performance model to misclassify the crafted examples, without
category differences in the human eyes, and fools deep models successfully.
There are two requirements for generating adversarial examples: the attack
success rate and image fidelity metrics. Generally, perturbations are increased
to ensure the adversarial examples' high attack success rate; however, the
adversarial examples obtained have poor concealment. To alleviate the tradeoff
between the attack success rate and image fidelity, we propose a method named
AdvJND, adding visual model coefficients, just noticeable difference
coefficients, in the constraint of a distortion function when generating
adversarial examples. In fact, the visual subjective feeling of the human eyes
is added as a priori information, which decides the distribution of
perturbations, to improve the image quality of adversarial examples. We tested
our method on the FashionMNIST, CIFAR10, and MiniImageNet datasets. Adversarial
examples generated by our AdvJND algorithm yield gradient distributions that
are similar to those of the original inputs. Hence, the crafted noise can be
hidden in the original inputs, thus improving the attack concealment
significantly.
- Abstract(参考訳): 従来の機械学習モデルと比較して、ディープニューラルネットワークは特に画像分類タスクにおいて、パフォーマンスが良い。
しかし、それらは敵対的な例に弱い。
例に小さな摂動を加えると、人間の目のカテゴリの違いを伴わずに、出来のよい例を誤分類し、深いモデルをうまく騙すことができる。
敵の例を生成するには、攻撃成功率と画像忠実度メトリクスの2つの要件がある。
一般的には、敵の例が攻撃の成功率が高いことを保証するために摂動が増加するが、得られた敵の例では隠蔽が不十分である。
攻撃成功率と画像忠実度とのトレードオフを緩和するため, 対向例を生成する際の歪み関数の制約に, 視覚モデル係数, 目立った差分係数を付加するAdvJND法を提案する。
実際、人間の目の視覚的主観的な感覚を、摂動の分布を決定する先行情報として加え、敵の例の画像品質を向上させる。
我々は,FashionMNIST,CIFAR10,MiniImageNetのデータセットを用いて実験を行った。
我々のAdvJNDアルゴリズムが生成した逆例は、元の入力に類似した勾配分布を生成する。
これにより、工芸品のノイズを元の入力に隠すことができ、攻撃の隠蔽を大幅に改善することができる。
関連論文リスト
- Adversarial Examples Detection with Enhanced Image Difference Features
based on Local Histogram Equalization [20.132066800052712]
本稿では,高頻度情報強調戦略に基づく逆例検出フレームワークを提案する。
このフレームワークは、敵の例と通常の例との特徴的差異を効果的に抽出し、増幅することができる。
論文 参考訳(メタデータ) (2023-05-08T03:14:01Z) - ALA: Adversarial Lightness Attack via Naturalness-aware Regularizations [16.1113773916041]
逆光攻撃(英語: Adversarial Lightness Attack、ALA)は、画像の明度を変更することに焦点を当てた非制限逆光攻撃である。
ALAは、高い画質と優れた転送性を持つ逆例を生成する。
ALAはまた、汚職を保護するためにトレーニングされた標準のResNet50を改善するのに役立つ。
論文 参考訳(メタデータ) (2022-01-16T15:25:24Z) - Identification of Attack-Specific Signatures in Adversarial Examples [62.17639067715379]
異なる攻撃アルゴリズムは, その効果だけでなく, 被害者の質的な影響も示している。
以上の結果から, 予測的対人攻撃は, 模擬モデルにおける成功率だけでなく, 被害者に対するより深い下流効果によって比較されるべきであることが示唆された。
論文 参考訳(メタデータ) (2021-10-13T15:40:48Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Generating Unrestricted Adversarial Examples via Three Parameters [11.325135016306165]
提案された敵対攻撃は、限られたパラメータ数を持つ無制限の敵対的例を生成する。
MNISTとSVHNデータセットの人間による評価で平均的な成功率は93.5%である。
また、モデル精度を6つのデータセットで平均73%削減します。
論文 参考訳(メタデータ) (2021-03-13T07:20:14Z) - Enhancing Transformation-based Defenses against Adversarial Examples
with First-Order Perturbations [7.075802972628797]
研究によると、ニューラルネットワークは敵の攻撃を受けやすい。
これはニューラルネットワークベースの人工知能システムに潜在的な脅威をもたらす。
敵の摂動を逆行して敵の例に抵抗する方法を提案する。
論文 参考訳(メタデータ) (2021-03-08T06:27:24Z) - Adversarial Examples Detection beyond Image Space [88.7651422751216]
摂動と予測信頼の間にはコンプライアンスが存在することが分かり、予測信頼の面から少数の摂動攻撃を検出するための指針となる。
本研究では,画像ストリームが画素アーティファクトに注目し,勾配ストリームが信頼度アーティファクトに対応する2ストリームアーキテクチャによる画像空間を超えた手法を提案する。
論文 参考訳(メタデータ) (2021-02-23T09:55:03Z) - Error Diffusion Halftoning Against Adversarial Examples [85.11649974840758]
敵対的な例には、深いニューラルネットワークを誤った予測にだますことができる慎重に作られた摂動が含まれます。
誤り拡散のハーフトン化に基づく新しい画像変換防御を提案し、逆転の例に対して防御するための逆転訓練と組み合わせます。
論文 参考訳(メタデータ) (2021-01-23T07:55:02Z) - Random Transformation of Image Brightness for Adversarial Attack [5.405413975396116]
逆の例は、オリジナルの画像に小さな人間の知覚できないものを加えることで作られる。
ディープニューラルネットワークは、オリジナルの画像に小さな人間の知覚できないものを加えることで構築される敵の例に対して脆弱である。
本稿では,高速勾配符号法と統合可能な,この現象に基づく逆例生成手法を提案する。
本手法は,データ拡張に基づく他の攻撃方法よりもブラックボックス攻撃の成功率が高い。
論文 参考訳(メタデータ) (2021-01-12T07:00:04Z) - Shaping Deep Feature Space towards Gaussian Mixture for Visual
Classification [74.48695037007306]
視覚分類のためのディープニューラルネットワークのためのガウス混合損失関数(GM)を提案する。
分類マージンと可能性正規化により、GM損失は高い分類性能と特徴分布の正確なモデリングの両方を促進する。
提案したモデルは、追加のトレーニング可能なパラメータを使わずに、簡単かつ効率的に実装できる。
論文 参考訳(メタデータ) (2020-11-18T03:32:27Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。