論文の概要: Transferable Universal Adversarial Perturbations Using Generative Models
- arxiv url: http://arxiv.org/abs/2010.14919v2
- Date: Thu, 29 Oct 2020 15:19:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 05:28:52.754074
- Title: Transferable Universal Adversarial Perturbations Using Generative Models
- Title(参考訳): 生成モデルを用いた移動可能な普遍的対向摂動
- Authors: Atiye Sadat Hashemi, Andreas B\"ar, Saeed Mozaffari, and Tim
Fingscheidt
- Abstract要約: 画像認識摂動(UAP)は、ディープニューラルネットワークを高い信頼性で騙すことができる。
より転送可能なUAPを生成するための新しい手法を提案する。
我々は、ソースモデルで平均93.36%の偽造率を得る。
- 参考スコア(独自算出の注目度): 29.52528162520099
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks tend to be vulnerable to adversarial perturbations,
which by adding to a natural image can fool a respective model with high
confidence. Recently, the existence of image-agnostic perturbations, also known
as universal adversarial perturbations (UAPs), were discovered. However,
existing UAPs still lack a sufficiently high fooling rate, when being applied
to an unknown target model. In this paper, we propose a novel deep learning
technique for generating more transferable UAPs. We utilize a perturbation
generator and some given pretrained networks so-called source models to
generate UAPs using the ImageNet dataset. Due to the similar feature
representation of various model architectures in the first layer, we propose a
loss formulation that focuses on the adversarial energy only in the respective
first layer of the source models. This supports the transferability of our
generated UAPs to any other target model. We further empirically analyze our
generated UAPs and demonstrate that these perturbations generalize very well
towards different target models. Surpassing the current state of the art in
both, fooling rate and model-transferability, we can show the superiority of
our proposed approach. Using our generated non-targeted UAPs, we obtain an
average fooling rate of 93.36% on the source models (state of the art: 82.16%).
Generating our UAPs on the deep ResNet-152, we obtain about a 12% absolute
fooling rate advantage vs. cutting-edge methods on VGG-16 and VGG-19 target
models.
- Abstract(参考訳): ディープニューラルネットワークは、逆境の摂動に弱い傾向があり、自然画像を追加することで、信頼度の高い各モデルを騙すことができる。
近年,universal adversarial perturbation(uaps)とも呼ばれる画像非依存摂動の存在が発見された。
しかし、既存のUAPは未知のターゲットモデルに適用される場合、十分に高い騙し率を欠いている。
本稿では,より転送可能なUAPを生成するための新しい深層学習手法を提案する。
我々は、ImageNetデータセットを用いて、摂動発生器といくつかの事前訓練されたネットワーク、いわゆるソースモデルを用いてUAPを生成する。
第1層における様々なモデルアーキテクチャの類似した特徴表現のため、ソースモデルのそれぞれの第1層においてのみ、逆エネルギーに焦点をあてた損失定式化を提案する。
これは、生成されたUAPを他のターゲットモデルに転送する可能性をサポートします。
さらに、生成したUAPを実験的に分析し、これらの摂動が異なるターゲットモデルに対して非常によく一般化されていることを示す。
ファッシングレートとモデル移行可能性の両方において,現在の技術水準を上回ることで,提案手法の優越性を示すことができる。
生成した非ターゲットUPAを用いて、ソースモデル(最先端:82.16%)で平均93.36%の偽造率を得る。
深部ResNet-152上でのUAPの生成により,VGG-16およびVGG-19ターゲットモデルにおけるカットエッジ法に比べて,約12%の絶対的不正率の利点が得られる。
関連論文リスト
- Self-Play Fine-Tuning of Diffusion Models for Text-to-Image Generation [59.184980778643464]
ファインチューニング拡散モデル : 生成人工知能(GenAI)の最前線
本稿では,拡散モデル(SPIN-Diffusion)のための自己演奏ファインチューニングという革新的な手法を紹介する。
提案手法は従来の教師付き微調整とRL戦略の代替として,モデル性能とアライメントの両方を大幅に改善する。
論文 参考訳(メタデータ) (2024-02-15T18:59:18Z) - Adv-Diffusion: Imperceptible Adversarial Face Identity Attack via Latent
Diffusion Model [61.53213964333474]
本稿では,生の画素空間ではなく,潜在空間における非知覚的対角的アイデンティティ摂動を生成できる統一的なフレームワークAdv-Diffusionを提案する。
具体的には,周囲のセマンティックな摂動を生成するために,個人性に敏感な条件付き拡散生成モデルを提案する。
設計された適応強度に基づく対向摂動アルゴリズムは、攻撃の伝達性とステルス性の両方を確保することができる。
論文 参考訳(メタデータ) (2023-12-18T15:25:23Z) - A Bayesian Non-parametric Approach to Generative Models: Integrating
Variational Autoencoder and Generative Adversarial Networks using Wasserstein
and Maximum Mean Discrepancy [2.966338139852619]
GAN(Generative Adversarial Network)とVAE(VAE)は、最も顕著で広く研究されている生成モデルである。
ベイズ的非パラメトリック(BNP)アプローチを用いて、GANとVAEを融合する。
本稿では,GANの識別能力とVAEの再構成能力とを融合させることにより,多種多様な生成タスクにおいて優れた性能を実現する。
論文 参考訳(メタデータ) (2023-08-27T08:58:31Z) - ExposureDiffusion: Learning to Expose for Low-light Image Enhancement [87.08496758469835]
この研究は、拡散モデルと物理ベースの露光モデルとをシームレスに統合することで、この問題に対処する。
提案手法は,バニラ拡散モデルと比較して性能が大幅に向上し,推論時間を短縮する。
提案するフレームワークは、実際のペア付きデータセット、SOTAノイズモデル、および異なるバックボーンネットワークの両方で動作する。
論文 参考訳(メタデータ) (2023-07-15T04:48:35Z) - Training Diffusion Models with Reinforcement Learning [82.29328477109826]
拡散モデルは、ログのような目的に近似して訓練される。
本稿では,下流目的のための拡散モデルを直接最適化するための強化学習手法について検討する。
本稿では,多段階決定問題としてデノベーションを行うことによって,ポリシー勾配アルゴリズムのクラスを実現する方法について述べる。
論文 参考訳(メタデータ) (2023-05-22T17:57:41Z) - Towards Understanding and Boosting Adversarial Transferability from a
Distribution Perspective [80.02256726279451]
近年,ディープニューラルネットワーク(DNN)に対する敵対的攻撃が注目されている。
本稿では,画像の分布を操作することで,敵の例を再現する新しい手法を提案する。
本手法は,攻撃の伝達性を大幅に向上させ,未目標シナリオと目標シナリオの両方において最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-10-09T09:58:51Z) - Enhancing Targeted Attack Transferability via Diversified Weight Pruning [0.3222802562733786]
悪意のある攻撃者は、画像に人間の知覚できないノイズを与えることによって、標的となる敵の例を生成することができる。
クロスモデル転送可能な敵の例では、モデル情報が攻撃者から秘密にされている場合でも、ニューラルネットワークの脆弱性は残る。
近年の研究では, エンサンブル法の有効性が示されている。
論文 参考訳(メタデータ) (2022-08-18T07:25:48Z) - HGAN: Hybrid Generative Adversarial Network [25.940501417539416]
本稿では,自己回帰モデルを用いてデータ密度推定を行うハイブリッド生成逆数ネットワーク(HGAN)を提案する。
GAN定式化における新しい深層構造は、単純なGANトレーニング手法に加えて、自己回帰モデル情報を逆向きに蒸留するために開発されている。
論文 参考訳(メタデータ) (2021-02-07T03:54:12Z) - Learning to Generate Image Source-Agnostic Universal Adversarial
Perturbations [65.66102345372758]
普遍対向摂動(UAP)は複数の画像を同時に攻撃することができる。
既存のUAPジェネレータは、画像が異なる画像ソースから描画される際には未開発である。
数発の学習をカスタマイズした例として,UAP生成の新たな視点を考察する。
論文 参考訳(メタデータ) (2020-09-29T01:23:20Z) - GAP++: Learning to generate target-conditioned adversarial examples [28.894143619182426]
逆の例は摂動入力であり、機械学習モデルに深刻な脅威をもたらす可能性がある。
本稿では、入力画像とターゲットラベルの両方に依存する目標条件の摂動を推論する、より汎用的なフレームワークを提案する。
本手法は,単一目標攻撃モデルで優れた性能を達成し,摂動ノルムを小さくして高い騙し率を得る。
論文 参考訳(メタデータ) (2020-06-09T07:49:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。