論文の概要: GreedyFool: Multi-Factor Imperceptibility and Its Application to
Designing a Black-box Adversarial Attack
- arxiv url: http://arxiv.org/abs/2010.06855v4
- Date: Mon, 29 Nov 2021 03:10:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 13:12:40.349951
- Title: GreedyFool: Multi-Factor Imperceptibility and Its Application to
Designing a Black-box Adversarial Attack
- Title(参考訳): GreedyFool:マルチファクタ非感受性とブラックボックス攻撃設計への応用
- Authors: Hui Liu, Bo Zhao, Minzhi Ji, and Peng Liu
- Abstract要約: 敵対的な例は、人間の目では摂動が受容できない、よく設計された入力サンプルである。
本稿では,人間の眼の知覚に影響を及ぼす4つの要因を要約する。
本稿では,GreedyFoolと呼ばれる新たなブラックボックス攻撃を提案する。
- 参考スコア(独自算出の注目度): 7.827575011634156
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial examples are well-designed input samples, in which perturbations
are imperceptible to the human eyes, but easily mislead the output of deep
neural networks (DNNs). Existing works synthesize adversarial examples by
leveraging simple metrics to penalize perturbations, that lack sufficient
consideration of the human visual system (HVS), which produces noticeable
artifacts. To explore why the perturbations are visible, this paper summarizes
four primary factors affecting the perceptibility of human eyes. Based on this
investigation, we design a multi-factor metric MulFactorLoss for measuring the
perceptual loss between benign examples and adversarial ones. In order to test
the imperceptibility of the multi-factor metric, we propose a novel black-box
adversarial attack that is referred to as GreedyFool. GreedyFool applies
differential evolution to evaluate the effects of perturbed pixels on the
confidence of a target DNN, and introduces greedy approximation to
automatically generate adversarial perturbations. We conduct extensive
experiments on the ImageNet and CIFRA-10 datasets and a comprehensive user
study with 60 participants. The experimental results demonstrate that
MulFactorLoss is a more imperceptible metric than the existing pixelwise
metrics, and GreedyFool achieves a 100% success rate in a black-box manner.
- Abstract(参考訳): 敵対的な例はよく設計された入力サンプルで、摂動は人間の目では認識できないが、ディープニューラルネットワーク(DNN)の出力を誤解しやすい。
既存の研究は、単純なメトリクスを利用して、人間の視覚システム(HVS)を十分に考慮していない摂動を罰することで、敵の例を合成する。
そこで本研究では,人間の眼の知覚に影響を及ぼす4つの要因を概説する。
本研究は,多要素指標MulFactorLossを用いて,良性実例と逆性実例との知覚的損失を測定する。
マルチファクター・メトリックの非受容性をテストするために,GreedyFoolと呼ばれる新しいブラックボックス対逆攻撃を提案する。
GreedyFoolは、摂動画素がターゲットのDNNの信頼性に与える影響を評価するために差分進化を適用し、逆方向の摂動を自動生成するためにグリーディ近似を導入する。
imagenet と cifra-10 データセットに関する広範な実験を行い,60 名の参加者による包括的ユーザ調査を行った。
実験の結果,MulFactorLossは既存のピクセル単位のメトリクスよりも知覚不可能な指標であり,GreedyFoolはブラックボックス方式で100%の成功率を達成した。
関連論文リスト
- A Geometrical Approach to Evaluate the Adversarial Robustness of Deep
Neural Networks [52.09243852066406]
対向収束時間スコア(ACTS)は、対向ロバストネス指標として収束時間を測定する。
我々は,大規模画像Netデータセットに対する異なる敵攻撃に対して,提案したACTSメトリックの有効性と一般化を検証する。
論文 参考訳(メタデータ) (2023-10-10T09:39:38Z) - When Measures are Unreliable: Imperceptible Adversarial Perturbations
toward Top-$k$ Multi-Label Learning [83.8758881342346]
新しい損失関数は、視覚的および測定的不受容性を両立できる敵の摂動を生成するために考案された。
大規模ベンチマークデータセットを用いた実験により,提案手法が最上位の$kのマルチラベルシステムを攻撃する際の優位性を実証した。
論文 参考訳(メタデータ) (2023-07-27T13:18:47Z) - Generating Adversarial Samples in Mini-Batches May Be Detrimental To
Adversarial Robustness [0.0]
本研究では, 対向試料生成時に使用するミニバッチサイズと, 対向試料の強度の関係について検討した。
逆サンプル強度がミニバッチサイズで劣化しないような損失関数を定式化する。
本研究は,敵対的攻撃の真の(実践的な)強さを過小評価する可能性,モデルの頑健さを過大評価するリスクを浮き彫りにした。
論文 参考訳(メタデータ) (2023-03-30T21:42:50Z) - Inference Time Evidences of Adversarial Attacks for Forensic on
Transformers [27.88746727644074]
視覚変換器(ViT)は、画像分類における最先端のパフォーマンスを達成することで、視覚タスクの一般的なパラダイムになりつつある。
本稿では,ネットワークの入力と出力および潜時特徴を用いて,推論時間中の敵攻撃を検出するための最初の試みを示す。
論文 参考訳(メタデータ) (2023-01-31T01:17:03Z) - On the Robustness of Quality Measures for GANs [136.18799984346248]
本研究は、インセプションスコア(IS)やFr'echet Inception Distance(FID)のような生成モデルの品質測定の堅牢性を評価する。
このような測度は、加算画素摂動によっても操作可能であることを示す。
論文 参考訳(メタデータ) (2022-01-31T06:43:09Z) - Imperceptible Adversarial Examples by Spatial Chroma-Shift [1.5749416770494706]
本稿では,入力画像の色成分のみを変更して,逆例を生成する手法を提案する。
人間の視覚知覚研究は、これらの例がより自然に見え、しばしば元のものと区別できないことを証明している。
論文 参考訳(メタデータ) (2021-08-05T10:19:23Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Residual Error: a New Performance Measure for Adversarial Robustness [85.0371352689919]
ディープラーニングの広く普及を制限する大きな課題は、敵の攻撃に対する脆弱さである。
本研究は,ディープニューラルネットワークの対角強靭性を評価するための新しい性能尺度である残留誤差の概念を提示する。
画像分類を用いた実験結果から,提案手法の有効性と有効性を示した。
論文 参考訳(メタデータ) (2021-06-18T16:34:23Z) - Shaping Deep Feature Space towards Gaussian Mixture for Visual
Classification [74.48695037007306]
視覚分類のためのディープニューラルネットワークのためのガウス混合損失関数(GM)を提案する。
分類マージンと可能性正規化により、GM損失は高い分類性能と特徴分布の正確なモデリングの両方を促進する。
提案したモデルは、追加のトレーニング可能なパラメータを使わずに、簡単かつ効率的に実装できる。
論文 参考訳(メタデータ) (2020-11-18T03:32:27Z) - Verifying the Causes of Adversarial Examples [5.381050729919025]
ニューラルネットワークのロバスト性は、入力に対するほとんど知覚できない摂動を含む敵の例によって挑戦される。
本稿では,敵対的事例の潜在的な原因の収集と,慎重に設計された制御実験による検証(あるいは部分的に検証)を行う。
実験の結果, 幾何学的要因はより直接的な原因であり, 統計的要因は現象を増大させることが明らかとなった。
論文 参考訳(メタデータ) (2020-10-19T16:17:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。