論文の概要: Semantic Preserving Adversarial Attack Generation with Autoencoder and
Genetic Algorithm
- arxiv url: http://arxiv.org/abs/2208.12230v1
- Date: Thu, 25 Aug 2022 17:27:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-26 12:59:32.268869
- Title: Semantic Preserving Adversarial Attack Generation with Autoencoder and
Genetic Algorithm
- Title(参考訳): オートエンコーダと遺伝的アルゴリズムを用いたセマンティック保存逆襲生成
- Authors: Xinyi Wang, Simon Yusuf Enoch, Dong Seong Kim
- Abstract要約: 小さなノイズは、最先端のモデルを騙して誤った予測をする。
自動エンコーダによって抽出されたデータの潜時特性を変更するブラックボックス攻撃を提案する。
我々は,MNISTとCIFAR-10データセットを用いてオートエンコーダを訓練し,遺伝的アルゴリズムを用いて最適な逆方向摂動を発見した。
- 参考スコア(独自算出の注目度): 29.613411948228563
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Widely used deep learning models are found to have poor robustness. Little
noises can fool state-of-the-art models into making incorrect predictions.
While there is a great deal of high-performance attack generation methods, most
of them directly add perturbations to original data and measure them using L_p
norms; this can break the major structure of data, thus, creating invalid
attacks. In this paper, we propose a black-box attack, which, instead of
modifying original data, modifies latent features of data extracted by an
autoencoder; then, we measure noises in semantic space to protect the semantics
of data. We trained autoencoders on MNIST and CIFAR-10 datasets and found
optimal adversarial perturbations using a genetic algorithm. Our approach
achieved a 100% attack success rate on the first 100 data of MNIST and CIFAR-10
datasets with less perturbation than FGSM.
- Abstract(参考訳): 広く使われているディープラーニングモデルは、堅牢性に乏しい。
小さなノイズは最先端のモデルを騙して誤った予測をする。
多くの高性能な攻撃生成手法があるが、そのほとんどは元のデータに直接摂動を加えてL_pノルムで測定する。
本稿では,自動エンコーダによって抽出されたデータの潜在特性を変更する代わりに,データのセマンティクスを保護するために,セマンティクス空間におけるノイズを測定するブラックボックス攻撃を提案する。
mnistとcifar-10のデータセットでオートエンコーダを訓練し,遺伝的アルゴリズムを用いて最適な逆摂動を見出した。
提案手法は,FGSMよりも摂動が少ないMNISTとCIFAR-10データセットの最初の100データに対して100%の攻撃成功率を達成した。
関連論文リスト
- Malicious URL Detection using optimized Hist Gradient Boosting Classifier based on grid search method [0.0]
悪意のあるウェブサイトが不正な理由で情報を収集する可能性があるため、オンラインプラットフォームで入力されたデータの正確さを信頼することは困難である。
悪意のあるWebサイトが引き起こすリスクを検出するために,機械学習(ML)ベースの手法を用いることを提案する。
使用されるデータセットには、悪意のあるWebサイトデータの1781のレコードと13の機能が含まれている。
論文 参考訳(メタデータ) (2024-06-12T11:16:30Z) - Wasserstein distributional robustness of neural networks [9.79503506460041]
ディープニューラルネットワークは敵攻撃(AA)に弱いことが知られている
画像認識タスクでは、元の小さな摂動によって画像が誤分類される可能性がある。
本稿では,Wassersteinの分散ロバスト最適化(DRO)技術を用いて問題を再検討し,新しいコントリビューションを得た。
論文 参考訳(メタデータ) (2023-06-16T13:41:24Z) - One-Pixel Shortcut: on the Learning Preference of Deep Neural Networks [28.502489028888608]
Unlearnable Example (ULE) は、DNNのトレーニングのための不正使用からデータを保護することを目的としている。
逆行訓練では、誤り最小化ノイズの非学習性は著しく低下する。
本稿では,各画像の1ピクセルのみを摂動させ,データセットを学習不能にする,新しいモデルフリー手法であるemphOne-Pixel Shortcutを提案する。
論文 参考訳(メタデータ) (2022-05-24T15:17:52Z) - DAD: Data-free Adversarial Defense at Test Time [21.741026088202126]
ディープモデルは敵の攻撃に非常に敏感である。
プライバシは、トレーニングデータではなく、トレーニングされたモデルのみへのアクセスを制限する、重要な関心事になっている。
我々は,「訓練データと統計値の欠如によるテスト時敵防衛」という全く新しい問題を提案する。
論文 参考訳(メタデータ) (2022-04-04T15:16:13Z) - Meta Adversarial Perturbations [66.43754467275967]
メタ逆境摂動(MAP)の存在を示す。
MAPは1段階の上昇勾配更新によって更新された後、自然画像を高い確率で誤分類する。
これらの摂動は画像に依存しないだけでなく、モデルに依存しないものであり、単一の摂動は見えないデータポイントと異なるニューラルネットワークアーキテクチャにまたがってうまく一般化される。
論文 参考訳(メタデータ) (2021-11-19T16:01:45Z) - MINIMAL: Mining Models for Data Free Universal Adversarial Triggers [57.14359126600029]
我々は、NLPモデルから入力非依存の逆のトリガーをマイニングするための、新しいデータフリーアプローチ、MINIMALを提案する。
我々はスタンフォード・センティメント・ツリーバンクの正のクラスを93.6%から9.6%に減らした。
SNLI(Stanford Natural Language Inference)では、このシングルワードトリガーによって、エンターメントクラスの精度が90.95%から0.6%未満に低下する。
論文 参考訳(メタデータ) (2021-09-25T17:24:48Z) - Semantic Perturbations with Normalizing Flows for Improved
Generalization [62.998818375912506]
我々は、非教師付きデータ拡張を定義するために、潜在空間における摂動が利用できることを示す。
トレーニングを通して分類器に適応する潜伏性対向性摂動が最も効果的であることが判明した。
論文 参考訳(メタデータ) (2021-08-18T03:20:00Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - Targeted Attack against Deep Neural Networks via Flipping Limited Weight
Bits [55.740716446995805]
我々は,悪質な目的で展開段階におけるモデルパラメータを修飾する新しい攻撃パラダイムについて検討する。
私たちのゴールは、特定のサンプルをサンプル修正なしでターゲットクラスに誤分類することです。
整数プログラミングにおける最新の手法を利用することで、このBIP問題を連続最適化問題として等価に再構成する。
論文 参考訳(メタデータ) (2021-02-21T03:13:27Z) - BERT-ATTACK: Adversarial Attack Against BERT Using BERT [77.82947768158132]
離散データ(テキストなど)に対するアドリアック攻撃は、連続データ(画像など)よりも難しい。
対戦型サンプルを生成するための高品質で効果的な方法である textbfBERT-Attack を提案する。
本手法は、成功率と摂動率の両方において、最先端の攻撃戦略より優れている。
論文 参考訳(メタデータ) (2020-04-21T13:30:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。