論文の概要: Learning to Generate Image Source-Agnostic Universal Adversarial
Perturbations
- arxiv url: http://arxiv.org/abs/2009.13714v4
- Date: Wed, 17 Aug 2022 23:00:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 05:01:02.274221
- Title: Learning to Generate Image Source-Agnostic Universal Adversarial
Perturbations
- Title(参考訳): 画像ソース非依存な普遍的敵対的摂動生成の学習
- Authors: Pu Zhao, Parikshit Ram, Songtao Lu, Yuguang Yao, Djallel Bouneffouf,
Xue Lin, Sijia Liu
- Abstract要約: 普遍対向摂動(UAP)は複数の画像を同時に攻撃することができる。
既存のUAPジェネレータは、画像が異なる画像ソースから描画される際には未開発である。
数発の学習をカスタマイズした例として,UAP生成の新たな視点を考察する。
- 参考スコア(独自算出の注目度): 65.66102345372758
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Adversarial perturbations are critical for certifying the robustness of deep
learning models. A universal adversarial perturbation (UAP) can simultaneously
attack multiple images, and thus offers a more unified threat model, obviating
an image-wise attack algorithm. However, the existing UAP generator is
underdeveloped when images are drawn from different image sources (e.g., with
different image resolutions). Towards an authentic universality across image
sources, we take a novel view of UAP generation as a customized instance of
few-shot learning, which leverages bilevel optimization and
learning-to-optimize (L2O) techniques for UAP generation with improved attack
success rate (ASR). We begin by considering the popular model agnostic
meta-learning (MAML) framework to meta-learn a UAP generator. However, we see
that the MAML framework does not directly offer the universal attack across
image sources, requiring us to integrate it with another meta-learning
framework of L2O. The resulting scheme for meta-learning a UAP generator (i)
has better performance (50% higher ASR) than baselines such as Projected
Gradient Descent, (ii) has better performance (37% faster) than the vanilla L2O
and MAML frameworks (when applicable), and (iii) is able to simultaneously
handle UAP generation for different victim models and image data sources.
- Abstract(参考訳): 深層学習モデルのロバスト性を検証するためには,逆向摂動が重要である。
universal adversarial perturbation (uap) は複数の画像を同時に攻撃することができ、より統一された脅威モデルを提供し、画像攻撃アルゴリズムを省略する。
しかし、既存のUAPジェネレータは、異なる画像ソース(例えば、異なる画像解像度)から画像が描画される場合、未開発である。
画像ソース間の真の普遍性に向けて、我々は、UAP生成のための二段階最適化と学習最適化(L2O)技術を活用して、攻撃成功率(ASR)を向上する、少数ショット学習のカスタマイズ事例として、UAP生成の新しい視点を取り入れた。
まず、UAPジェネレータをメタ学習するために、人気のあるモデル非依存メタラーニング(MAML)フレームワークを検討する。
しかし、MAMLフレームワークは画像ソースを直接的に攻撃するわけではなく、L2Oの別のメタ学習フレームワークと統合する必要がある。
UAPジェネレータのメタ学習方式
(i)プロジェクテッドグラディエントDescentのようなベースラインよりも性能(ASRが50%高い)が良い。
(ii)バニラL2OやMAMLフレームワーク(適用可能な場合)よりもパフォーマンスが(37%高速)、そして
(iii) 異なる犠牲者モデルと画像データソースに対して同時にUAP生成を行うことができる。
関連論文リスト
- Improving Human-Object Interaction Detection via Virtual Image Learning [68.56682347374422]
人間-物体相互作用(Human-Object Interaction、HOI)は、人間と物体の相互作用を理解することを目的としている。
本稿では,仮想画像学習(Virtual Image Leaning, VIL)による不均衡分布の影響を軽減することを提案する。
ラベルからイメージへの新たなアプローチであるMultiple Steps Image Creation (MUSIC)が提案され、実際の画像と一貫した分布を持つ高品質なデータセットを作成する。
論文 参考訳(メタデータ) (2023-08-04T10:28:48Z) - MOCA: Self-supervised Representation Learning by Predicting Masked
Online Codebook Assignments [48.67345147676275]
自己教師付き学習は、ビジョントランスフォーマーネットワークの欲求を軽減できる。
相乗的, 計算効率の両パラダイムを効果的に活用する方法を示す。
我々は,様々な評価プロトコルにおいて,低照度設定と強力な実験結果に対して,最先端の新たな結果を得る。
論文 参考訳(メタデータ) (2023-07-18T15:46:20Z) - The race to robustness: exploiting fragile models for urban camouflage
and the imperative for machine learning security [0.0]
本稿では,コンピュータビジョンに基づくAML攻撃手法の分散インスタンス化を実現する新しい手法であるDAR(Distributed Adversarial Regions)を提案する。
都市環境におけるオブジェクト検出モデルのコンテキストを考察し,MobileNetV2,NasNetMobile,DenseNet169モデルをベンチマークする。
DARは平均で40.4%の信頼性低下を引き起こすが、画像全体を必要としない利点がある。
論文 参考訳(メタデータ) (2023-06-26T11:32:40Z) - Embracing Compact and Robust Architectures for Multi-Exposure Image
Fusion [50.598654017728045]
本稿では,堅牢なマルチ露光画像融合のための自己アライメントとディテールリプレクションモジュールを含む探索型パラダイムを提案する。
シーンリライティングと変形可能な畳み込みを利用して、カメラの動きに拘わらず、画像を正確に調整することができる。
我々は、様々な競争方式と比較して最先端の性能を実現し、一般的なシナリオと不整合シナリオに対するPSNRの4.02%と29.34%の改善を実現した。
論文 参考訳(メタデータ) (2023-05-20T17:01:52Z) - Plug & Play Attacks: Towards Robust and Flexible Model Inversion Attacks [13.374754708543449]
モデルアタック(MIA)は、モデルが学習した知識を活用して、対象のインバージョントレーニングデータからクラスワイズ特性を反映した合成画像を作成することを目的としている。
従来の研究では、特定のターゲットモデルに合わせた画像の先行画像として、GAN(Generative Adversarial Network)を用いたジェネレーティブMIAを開発した。
ターゲットモデルと画像間の依存性を緩和し、訓練された単一のGANを使用することで、幅広いターゲットを攻撃できるプラグイン&プレイアタック(Plug & Play Attacks)を提案する。
論文 参考訳(メタデータ) (2022-01-28T15:25:50Z) - Towards Unsupervised Deep Image Enhancement with Generative Adversarial
Network [92.01145655155374]
監視されていない画像強調生成ネットワーク(UEGAN)を提案する。
教師なしの方法で所望の特性を持つ画像の集合から、対応する画像と画像のマッピングを学習する。
その結果,提案モデルは画像の美的品質を効果的に向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:22:46Z) - Transferable Universal Adversarial Perturbations Using Generative Models [29.52528162520099]
画像認識摂動(UAP)は、ディープニューラルネットワークを高い信頼性で騙すことができる。
より転送可能なUAPを生成するための新しい手法を提案する。
我々は、ソースモデルで平均93.36%の偽造率を得る。
論文 参考訳(メタデータ) (2020-10-28T12:31:59Z) - Dual Manifold Adversarial Robustness: Defense against Lp and non-Lp
Adversarial Attacks [154.31827097264264]
敵の訓練は、境界Lpノルムを持つ攻撃脅威モデルに対する一般的な防衛戦略である。
本稿では,2次元マニフォールド逆行訓練(DMAT)を提案する。
我々のDMATは、通常の画像の性能を改善し、Lp攻撃に対する標準的な敵の訓練と同等の堅牢性を達成する。
論文 参考訳(メタデータ) (2020-09-05T06:00:28Z) - Incorporating Reinforced Adversarial Learning in Autoregressive Image
Generation [39.55651747758391]
本稿では,自己回帰モデルに対するポリシー勾配最適化に基づく強化適応学習(RAL)を提案する。
RALはまた、VQ-VAEフレームワークの異なるモジュール間のコラボレーションを強化する。
提案手法は,64$times$64画像解像度でCelebaの最先端結果を実現する。
論文 参考訳(メタデータ) (2020-07-20T08:10:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。