論文の概要: Learning to Generate Image Source-Agnostic Universal Adversarial
Perturbations
- arxiv url: http://arxiv.org/abs/2009.13714v4
- Date: Wed, 17 Aug 2022 23:00:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 05:01:02.274221
- Title: Learning to Generate Image Source-Agnostic Universal Adversarial
Perturbations
- Title(参考訳): 画像ソース非依存な普遍的敵対的摂動生成の学習
- Authors: Pu Zhao, Parikshit Ram, Songtao Lu, Yuguang Yao, Djallel Bouneffouf,
Xue Lin, Sijia Liu
- Abstract要約: 普遍対向摂動(UAP)は複数の画像を同時に攻撃することができる。
既存のUAPジェネレータは、画像が異なる画像ソースから描画される際には未開発である。
数発の学習をカスタマイズした例として,UAP生成の新たな視点を考察する。
- 参考スコア(独自算出の注目度): 65.66102345372758
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Adversarial perturbations are critical for certifying the robustness of deep
learning models. A universal adversarial perturbation (UAP) can simultaneously
attack multiple images, and thus offers a more unified threat model, obviating
an image-wise attack algorithm. However, the existing UAP generator is
underdeveloped when images are drawn from different image sources (e.g., with
different image resolutions). Towards an authentic universality across image
sources, we take a novel view of UAP generation as a customized instance of
few-shot learning, which leverages bilevel optimization and
learning-to-optimize (L2O) techniques for UAP generation with improved attack
success rate (ASR). We begin by considering the popular model agnostic
meta-learning (MAML) framework to meta-learn a UAP generator. However, we see
that the MAML framework does not directly offer the universal attack across
image sources, requiring us to integrate it with another meta-learning
framework of L2O. The resulting scheme for meta-learning a UAP generator (i)
has better performance (50% higher ASR) than baselines such as Projected
Gradient Descent, (ii) has better performance (37% faster) than the vanilla L2O
and MAML frameworks (when applicable), and (iii) is able to simultaneously
handle UAP generation for different victim models and image data sources.
- Abstract(参考訳): 深層学習モデルのロバスト性を検証するためには,逆向摂動が重要である。
universal adversarial perturbation (uap) は複数の画像を同時に攻撃することができ、より統一された脅威モデルを提供し、画像攻撃アルゴリズムを省略する。
しかし、既存のUAPジェネレータは、異なる画像ソース(例えば、異なる画像解像度)から画像が描画される場合、未開発である。
画像ソース間の真の普遍性に向けて、我々は、UAP生成のための二段階最適化と学習最適化(L2O)技術を活用して、攻撃成功率(ASR)を向上する、少数ショット学習のカスタマイズ事例として、UAP生成の新しい視点を取り入れた。
まず、UAPジェネレータをメタ学習するために、人気のあるモデル非依存メタラーニング(MAML)フレームワークを検討する。
しかし、MAMLフレームワークは画像ソースを直接的に攻撃するわけではなく、L2Oの別のメタ学習フレームワークと統合する必要がある。
UAPジェネレータのメタ学習方式
(i)プロジェクテッドグラディエントDescentのようなベースラインよりも性能(ASRが50%高い)が良い。
(ii)バニラL2OやMAMLフレームワーク(適用可能な場合)よりもパフォーマンスが(37%高速)、そして
(iii) 異なる犠牲者モデルと画像データソースに対して同時にUAP生成を行うことができる。
関連論文リスト
- Texture Re-scalable Universal Adversarial Perturbation [61.33178492209849]
本稿では, 局所的なテクスチャをカテゴリー別で自動生成する, テクスチャスケールの制約付きUAPを提案する。
TSC-UAPは、データ依存UAP法とデータフリーUAP法の両方において、不正率と攻撃伝達性を大幅に改善する。
論文 参考訳(メタデータ) (2024-06-10T08:18:55Z) - Mixture of Low-rank Experts for Transferable AI-Generated Image Detection [18.631006488565664]
生成モデルは、最小限の専門知識を持つ写真リアリスティック画像の飛躍的な飛躍を見せ、オンライン情報の真正性に対する懸念を喚起している。
本研究の目的は,多様なソースからの画像を識別できる,汎用的なAI生成画像検出器を開発することである。
事前学習された視覚言語モデルのゼロショット転送性に着想を得て、未知の領域を一般化するために、CLIP-ViTの非自明な視覚世界知識と記述的習熟度を活用することを目指す。
論文 参考訳(メタデータ) (2024-04-07T09:01:50Z) - Bi-LORA: A Vision-Language Approach for Synthetic Image Detection [14.448350657613364]
生成逆数ネットワーク(GAN)や拡散モデル(DM)のような深層画像合成技術は、非常に現実的な画像を生成する時代に定着してきた。
本稿では、視覚言語モデル(VLM)のゼロショット特性と相まって、視覚と言語の間の強力な収束能力から着想を得る。
我々は,VLMと低ランク適応(LORA)チューニング技術を組み合わせたBi-LORAと呼ばれる革新的な手法を導入し,未知のモデル生成画像に対する合成画像検出の精度を向上させる。
論文 参考訳(メタデータ) (2024-04-02T13:54:22Z) - Raising the Bar of AI-generated Image Detection with CLIP [50.345365081177555]
本研究の目的は、AI生成画像の普遍的検出のための事前学習された視覚言語モデル(VLM)の可能性を探ることである。
我々は,CLIP機能に基づく軽量な検出戦略を開発し,その性能を様々な難易度シナリオで検証する。
論文 参考訳(メタデータ) (2023-11-30T21:11:20Z) - MOCA: Self-supervised Representation Learning by Predicting Masked Online Codebook Assignments [72.6405488990753]
自己教師付き学習は、ビジョントランスフォーマーネットワークの欲求を軽減できる。
所望のプロパティを統一する単段および単段のMOCAを提案する。
我々は,様々な評価プロトコルにおいて,低照度設定と強力な実験結果に対して,最先端の新たな結果を得る。
論文 参考訳(メタデータ) (2023-07-18T15:46:20Z) - The race to robustness: exploiting fragile models for urban camouflage
and the imperative for machine learning security [0.0]
本稿では,コンピュータビジョンに基づくAML攻撃手法の分散インスタンス化を実現する新しい手法であるDAR(Distributed Adversarial Regions)を提案する。
都市環境におけるオブジェクト検出モデルのコンテキストを考察し,MobileNetV2,NasNetMobile,DenseNet169モデルをベンチマークする。
DARは平均で40.4%の信頼性低下を引き起こすが、画像全体を必要としない利点がある。
論文 参考訳(メタデータ) (2023-06-26T11:32:40Z) - Towards Unsupervised Deep Image Enhancement with Generative Adversarial
Network [92.01145655155374]
監視されていない画像強調生成ネットワーク(UEGAN)を提案する。
教師なしの方法で所望の特性を持つ画像の集合から、対応する画像と画像のマッピングを学習する。
その結果,提案モデルは画像の美的品質を効果的に向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:22:46Z) - Transferable Universal Adversarial Perturbations Using Generative Models [29.52528162520099]
画像認識摂動(UAP)は、ディープニューラルネットワークを高い信頼性で騙すことができる。
より転送可能なUAPを生成するための新しい手法を提案する。
我々は、ソースモデルで平均93.36%の偽造率を得る。
論文 参考訳(メタデータ) (2020-10-28T12:31:59Z) - Dual Manifold Adversarial Robustness: Defense against Lp and non-Lp
Adversarial Attacks [154.31827097264264]
敵の訓練は、境界Lpノルムを持つ攻撃脅威モデルに対する一般的な防衛戦略である。
本稿では,2次元マニフォールド逆行訓練(DMAT)を提案する。
我々のDMATは、通常の画像の性能を改善し、Lp攻撃に対する標準的な敵の訓練と同等の堅牢性を達成する。
論文 参考訳(メタデータ) (2020-09-05T06:00:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。