論文の概要: Generating Out of Distribution Adversarial Attack using Latent Space
Poisoning
- arxiv url: http://arxiv.org/abs/2012.05027v1
- Date: Wed, 9 Dec 2020 13:05:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 02:12:04.446870
- Title: Generating Out of Distribution Adversarial Attack using Latent Space
Poisoning
- Title(参考訳): 潜在空間中毒による配電敵攻撃の発生
- Authors: Ujjwal Upadhyay and Prerana Mukherjee
- Abstract要約: 本稿では,実際の画像が破損しない敵の例を生成する新しいメカニズムを提案する。
潜在空間表現は、画像の固有構造を改ざんするために利用される。
勾配ベースの攻撃とは対照的に、潜時空間中毒は、トレーニングデータセットの独立かつ同一分布をモデル化する分類器の傾きを利用する。
- 参考スコア(独自算出の注目度): 5.1314136039587925
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional adversarial attacks rely upon the perturbations generated by
gradients from the network which are generally safeguarded by gradient guided
search to provide an adversarial counterpart to the network. In this paper, we
propose a novel mechanism of generating adversarial examples where the actual
image is not corrupted rather its latent space representation is utilized to
tamper with the inherent structure of the image while maintaining the
perceptual quality intact and to act as legitimate data samples. As opposed to
gradient-based attacks, the latent space poisoning exploits the inclination of
classifiers to model the independent and identical distribution of the training
dataset and tricks it by producing out of distribution samples. We train a
disentangled variational autoencoder (beta-VAE) to model the data in latent
space and then we add noise perturbations using a class-conditioned
distribution function to the latent space under the constraint that it is
misclassified to the target label. Our empirical results on MNIST, SVHN, and
CelebA dataset validate that the generated adversarial examples can easily fool
robust l_0, l_2, l_inf norm classifiers designed using provably robust defense
mechanisms.
- Abstract(参考訳): 従来の敵攻撃は、ネットワークの勾配によって生じる摂動に依存しており、一般的には勾配誘導探索によって保護される。
本稿では,実際の画像が破損せず,その潜在空間表現が,知覚的品質を損なうことなく画像の固有構造を改ざんし,正当なデータサンプルとして機能する,敵対的例を生成する新しいメカニズムを提案する。
勾配に基づく攻撃とは対照的に、潜伏空間中毒は分類器の傾きを利用して訓練データセットの独立かつ同一の分布をモデル化し、分布サンプルから生成することでそれを騙す。
乱れた変分オートエンコーダ (beta-vae) を訓練して潜在空間におけるデータをモデル化し, 対象ラベルに誤分類されるという制約の下で, クラス条件分布関数を用いた雑音摂動を潜在空間に付加する。
mnist,svhn,celebaデータセットを用いた実験結果から,ロバストなl_0,l_2,l_infノルム分類器がロバストな防御機構を用いて設計されていることを検証した。
関連論文リスト
- Certified $\ell_2$ Attribution Robustness via Uniformly Smoothed Attributions [20.487079380753876]
本研究では,ある空間から一様にサンプリングされた雑音によってバニラ属性を増大させる一様平滑化手法を提案する。
攻撃領域内の全ての摂動に対して、摂動試料の均一なスムーズな属性と非摂動試料とのコサイン類似性を低くすることが保証された。
論文 参考訳(メタデータ) (2024-05-10T09:56:02Z) - Breaking Free: How to Hack Safety Guardrails in Black-Box Diffusion Models! [52.0855711767075]
EvoSeedは、フォトリアリスティックな自然対向サンプルを生成するための進化戦略に基づくアルゴリズムフレームワークである。
我々は,CMA-ESを用いて初期種ベクトルの探索を最適化し,条件付き拡散モデルで処理すると,自然逆数サンプルをモデルで誤分類する。
実験の結果, 生成した対向画像は画像品質が高く, 安全分類器を通過させることで有害なコンテンツを生成する懸念が高まっていることがわかった。
論文 参考訳(メタデータ) (2024-02-07T09:39:29Z) - A Privacy-Preserving Walk in the Latent Space of Generative Models for
Medical Applications [11.39717289910264]
GAN(Generative Adversarial Networks)は、ターゲット分布に一致する合成サンプルを生成する能力を実証している。
GANは、潜伏空間に実際のサンプルのほぼ重複体を埋め込む傾向がある。
本稿では,深層モデルの効果的なトレーニングを支援するために,多種多様な合成サンプルを生成できる潜時空間ナビゲーション戦略を提案する。
論文 参考訳(メタデータ) (2023-07-06T13:35:48Z) - Diffusion-Based Adversarial Sample Generation for Improved Stealthiness
and Controllability [62.105715985563656]
そこで本研究では,現実的な対向サンプルを生成するための拡散型射影勾配 Descent (Diff-PGD) という新しいフレームワークを提案する。
我々のフレームワークは、デジタルアタック、物理世界アタック、スタイルベースのアタックなど、特定のタスクに簡単にカスタマイズできる。
論文 参考訳(メタデータ) (2023-05-25T21:51:23Z) - Self-Supervised Training with Autoencoders for Visual Anomaly Detection [61.62861063776813]
我々は, 正規サンプルの分布を低次元多様体で支持する異常検出において, 特定のユースケースに焦点を当てた。
我々は、訓練中に識別情報を活用する自己指導型学習体制に適応するが、通常の例のサブ多様体に焦点をあてる。
製造領域における視覚異常検出のための挑戦的なベンチマークであるMVTec ADデータセットで、最先端の新たな結果を達成する。
論文 参考訳(メタデータ) (2022-06-23T14:16:30Z) - Self-Conditioned Generative Adversarial Networks for Image Editing [61.50205580051405]
Generative Adversarial Networks (GAN) はバイアスの影響を受けやすい。
我々は、このバイアスが公平性だけでなく、分布のコアから逸脱する際の潜在トラバース編集手法の崩壊に重要な役割を果たしていると論じる。
論文 参考訳(メタデータ) (2022-02-08T18:08:24Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - DAAIN: Detection of Anomalous and Adversarial Input using Normalizing
Flows [52.31831255787147]
我々は、アウト・オブ・ディストリビューション(OOD)インプットと敵攻撃(AA)を検出する新しい手法であるDAINを導入する。
本手法は,ニューラルネットワークの内部動作を監視し,活性化分布の密度推定器を学習する。
当社のモデルは,特別なアクセラレータを必要とせずに,効率的な計算とデプロイが可能な単一のGPUでトレーニングすることが可能です。
論文 参考訳(メタデータ) (2021-05-30T22:07:13Z) - Regularization with Latent Space Virtual Adversarial Training [4.874780144224057]
VAT(Virtual Adversarial Training)は,最近開発された正規化手法において顕著な結果を示した。
入力空間の代わりに潜在空間の摂動を注入するLVATを提案する。
LVATは反対のサンプルを柔軟に生成することができ、より有害な効果をもたらし、より効果的な正則化をもたらす。
論文 参考訳(メタデータ) (2020-11-26T08:51:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。