論文の概要: Transferable Universal Adversarial Perturbations Using Generative Models
- arxiv url: http://arxiv.org/abs/2010.14919v2
- Date: Thu, 29 Oct 2020 15:19:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 05:28:52.754074
- Title: Transferable Universal Adversarial Perturbations Using Generative Models
- Title(参考訳): 生成モデルを用いた移動可能な普遍的対向摂動
- Authors: Atiye Sadat Hashemi, Andreas B\"ar, Saeed Mozaffari, and Tim
Fingscheidt
- Abstract要約: 画像認識摂動(UAP)は、ディープニューラルネットワークを高い信頼性で騙すことができる。
より転送可能なUAPを生成するための新しい手法を提案する。
我々は、ソースモデルで平均93.36%の偽造率を得る。
- 参考スコア(独自算出の注目度): 29.52528162520099
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks tend to be vulnerable to adversarial perturbations,
which by adding to a natural image can fool a respective model with high
confidence. Recently, the existence of image-agnostic perturbations, also known
as universal adversarial perturbations (UAPs), were discovered. However,
existing UAPs still lack a sufficiently high fooling rate, when being applied
to an unknown target model. In this paper, we propose a novel deep learning
technique for generating more transferable UAPs. We utilize a perturbation
generator and some given pretrained networks so-called source models to
generate UAPs using the ImageNet dataset. Due to the similar feature
representation of various model architectures in the first layer, we propose a
loss formulation that focuses on the adversarial energy only in the respective
first layer of the source models. This supports the transferability of our
generated UAPs to any other target model. We further empirically analyze our
generated UAPs and demonstrate that these perturbations generalize very well
towards different target models. Surpassing the current state of the art in
both, fooling rate and model-transferability, we can show the superiority of
our proposed approach. Using our generated non-targeted UAPs, we obtain an
average fooling rate of 93.36% on the source models (state of the art: 82.16%).
Generating our UAPs on the deep ResNet-152, we obtain about a 12% absolute
fooling rate advantage vs. cutting-edge methods on VGG-16 and VGG-19 target
models.
- Abstract(参考訳): ディープニューラルネットワークは、逆境の摂動に弱い傾向があり、自然画像を追加することで、信頼度の高い各モデルを騙すことができる。
近年,universal adversarial perturbation(uaps)とも呼ばれる画像非依存摂動の存在が発見された。
しかし、既存のUAPは未知のターゲットモデルに適用される場合、十分に高い騙し率を欠いている。
本稿では,より転送可能なUAPを生成するための新しい深層学習手法を提案する。
我々は、ImageNetデータセットを用いて、摂動発生器といくつかの事前訓練されたネットワーク、いわゆるソースモデルを用いてUAPを生成する。
第1層における様々なモデルアーキテクチャの類似した特徴表現のため、ソースモデルのそれぞれの第1層においてのみ、逆エネルギーに焦点をあてた損失定式化を提案する。
これは、生成されたUAPを他のターゲットモデルに転送する可能性をサポートします。
さらに、生成したUAPを実験的に分析し、これらの摂動が異なるターゲットモデルに対して非常によく一般化されていることを示す。
ファッシングレートとモデル移行可能性の両方において,現在の技術水準を上回ることで,提案手法の優越性を示すことができる。
生成した非ターゲットUPAを用いて、ソースモデル(最先端:82.16%)で平均93.36%の偽造率を得る。
深部ResNet-152上でのUAPの生成により,VGG-16およびVGG-19ターゲットモデルにおけるカットエッジ法に比べて,約12%の絶対的不正率の利点が得られる。
関連論文リスト
- Model Inversion Attacks Through Target-Specific Conditional Diffusion Models [54.69008212790426]
モデル反転攻撃(MIA)は、ターゲット分類器のトレーニングセットからプライベートイメージを再構築することを目的としており、それによってAIアプリケーションにおけるプライバシー上の懸念が高まる。
従来のGANベースのMIAは、GANの固有の欠陥と潜伏空間における最適化の偏りにより、劣った遺伝子的忠実度に悩まされる傾向にある。
これらの問題を緩和するために拡散モデル反転(Diff-MI)攻撃を提案する。
論文 参考訳(メタデータ) (2024-07-16T06:38:49Z) - Texture Re-scalable Universal Adversarial Perturbation [61.33178492209849]
本稿では, 局所的なテクスチャをカテゴリー別で自動生成する, テクスチャスケールの制約付きUAPを提案する。
TSC-UAPは、データ依存UAP法とデータフリーUAP法の両方において、不正率と攻撃伝達性を大幅に改善する。
論文 参考訳(メタデータ) (2024-06-10T08:18:55Z) - Mixture of Low-rank Experts for Transferable AI-Generated Image Detection [18.631006488565664]
生成モデルは、最小限の専門知識を持つ写真リアリスティック画像の飛躍的な飛躍を見せ、オンライン情報の真正性に対する懸念を喚起している。
本研究の目的は,多様なソースからの画像を識別できる,汎用的なAI生成画像検出器を開発することである。
事前学習された視覚言語モデルのゼロショット転送性に着想を得て、未知の領域を一般化するために、CLIP-ViTの非自明な視覚世界知識と記述的習熟度を活用することを目指す。
論文 参考訳(メタデータ) (2024-04-07T09:01:50Z) - Self-Play Fine-Tuning of Diffusion Models for Text-to-Image Generation [59.184980778643464]
ファインチューニング拡散モデル : 生成人工知能(GenAI)の最前線
本稿では,拡散モデル(SPIN-Diffusion)のための自己演奏ファインチューニングという革新的な手法を紹介する。
提案手法は従来の教師付き微調整とRL戦略の代替として,モデル性能とアライメントの両方を大幅に改善する。
論文 参考訳(メタデータ) (2024-02-15T18:59:18Z) - Adv-Diffusion: Imperceptible Adversarial Face Identity Attack via Latent
Diffusion Model [61.53213964333474]
本稿では,生の画素空間ではなく,潜在空間における非知覚的対角的アイデンティティ摂動を生成できる統一的なフレームワークAdv-Diffusionを提案する。
具体的には,周囲のセマンティックな摂動を生成するために,個人性に敏感な条件付き拡散生成モデルを提案する。
設計された適応強度に基づく対向摂動アルゴリズムは、攻撃の伝達性とステルス性の両方を確保することができる。
論文 参考訳(メタデータ) (2023-12-18T15:25:23Z) - Class-Prototype Conditional Diffusion Model with Gradient Projection for Continual Learning [20.175586324567025]
破滅的な忘れ方を減らすことは、継続的な学習における重要なハードルである。
大きな問題は、生成したデータの品質がオリジナルのものと比べて低下することである。
本稿では,ジェネレータにおける画像品質を向上させる連続学習のためのGRに基づくアプローチを提案する。
論文 参考訳(メタデータ) (2023-12-10T17:39:42Z) - Training Diffusion Models with Reinforcement Learning [82.29328477109826]
拡散モデルは、ログのような目的に近似して訓練される。
本稿では,下流目的のための拡散モデルを直接最適化するための強化学習手法について検討する。
本稿では,多段階決定問題としてデノベーションを行うことによって,ポリシー勾配アルゴリズムのクラスを実現する方法について述べる。
論文 参考訳(メタデータ) (2023-05-22T17:57:41Z) - Enhancing Targeted Attack Transferability via Diversified Weight Pruning [0.3222802562733786]
悪意のある攻撃者は、画像に人間の知覚できないノイズを与えることによって、標的となる敵の例を生成することができる。
クロスモデル転送可能な敵の例では、モデル情報が攻撃者から秘密にされている場合でも、ニューラルネットワークの脆弱性は残る。
近年の研究では, エンサンブル法の有効性が示されている。
論文 参考訳(メタデータ) (2022-08-18T07:25:48Z) - Learning to Generate Image Source-Agnostic Universal Adversarial
Perturbations [65.66102345372758]
普遍対向摂動(UAP)は複数の画像を同時に攻撃することができる。
既存のUAPジェネレータは、画像が異なる画像ソースから描画される際には未開発である。
数発の学習をカスタマイズした例として,UAP生成の新たな視点を考察する。
論文 参考訳(メタデータ) (2020-09-29T01:23:20Z) - GAP++: Learning to generate target-conditioned adversarial examples [28.894143619182426]
逆の例は摂動入力であり、機械学習モデルに深刻な脅威をもたらす可能性がある。
本稿では、入力画像とターゲットラベルの両方に依存する目標条件の摂動を推論する、より汎用的なフレームワークを提案する。
本手法は,単一目標攻撃モデルで優れた性能を達成し,摂動ノルムを小さくして高い騙し率を得る。
論文 参考訳(メタデータ) (2020-06-09T07:49:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。