論文の概要: Protecting Against Image Translation Deepfakes by Leaking Universal
Perturbations from Black-Box Neural Networks
- arxiv url: http://arxiv.org/abs/2006.06493v1
- Date: Thu, 11 Jun 2020 15:02:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 09:07:53.725152
- Title: Protecting Against Image Translation Deepfakes by Leaking Universal
Perturbations from Black-Box Neural Networks
- Title(参考訳): ブラックボックスニューラルネットワークからのユニバーサル摂動の漏洩による画像翻訳ディープフェイクの防止
- Authors: Nataniel Ruiz, Sarah Adel Bargal, Stan Sclaroff
- Abstract要約: 我々は,ブラックボックス画像翻訳深度生成システムの効率よく破壊する手法を開発した。
分類ブラックボックス攻撃の単純適応により、現実世界における画像翻訳システムに対するクエリの禁止数が増加する。
本稿では,画像の攻撃に要するクエリ数を大幅に削減する,フラストレーションに富んだ,かつ高効率なアルゴリズムであるLUP(Universal Perturbations)を提案する。
- 参考スコア(独自算出の注目度): 37.91090081295844
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we develop efficient disruptions of black-box image translation
deepfake generation systems. We are the first to demonstrate black-box deepfake
generation disruption by presenting image translation formulations of attacks
initially proposed for classification models. Nevertheless, a naive adaptation
of classification black-box attacks results in a prohibitive number of queries
for image translation systems in the real-world. We present a frustratingly
simple yet highly effective algorithm Leaking Universal Perturbations (LUP),
that significantly reduces the number of queries needed to attack an image. LUP
consists of two phases: (1) a short leaking phase where we attack the network
using traditional black-box attacks and gather information on successful
attacks on a small dataset and (2) and an exploitation phase where we leverage
said information to subsequently attack the network with improved efficiency.
Our attack reduces the total number of queries necessary to attack GANimation
and StarGAN by 30%.
- Abstract(参考訳): 本研究では,ブラックボックス画像翻訳深度生成システムの効率的な破壊手法を開発する。
分類モデルとして最初に提案された攻撃のイメージ翻訳式を提示することにより,ブラックボックスのディープフェイク生成の破壊を初めて実証する。
それでも、分類ブラックボックス攻撃の素直な適応は、現実世界における画像翻訳システムに対する不当な数のクエリをもたらす。
本稿では,画像の攻撃に要するクエリ数を著しく削減する,フラストレーションに富んだ,かつ高効率なアルゴリズムLaking Universal Perturbations (LUP)を提案する。
LUPは,(1)従来のブラックボックス攻撃を用いてネットワークを攻撃し,小さなデータセットに対する攻撃を成功させる短いリークフェーズと,(2)その情報を利用してネットワークを攻撃し,効率を向上するエクスプロイトフェーズの2つのフェーズから構成される。
我々の攻撃は、GANimationとStarGANを攻撃するのに必要なクエリの総数を30%削減します。
関連論文リスト
- Ask, Attend, Attack: A Effective Decision-Based Black-Box Targeted Attack for Image-to-Text Models [29.1607388062023]
本稿では,攻撃者が最終出力テキストにのみアクセスし,標的攻撃を行うことを目的とした決定ベースのブラックボックス攻撃という,困難なシナリオに焦点を当てる。
3段階のプロセス textitAsk, Attend, Attack は textitAAA と呼ばれ、解決者と協調するために提案されている。
Transformer-basedおよびCNN+RNN-based image-to-text modelの実験結果から,提案したtextitAAAの有効性が確認された。
論文 参考訳(メタデータ) (2024-08-16T19:35:06Z) - Distributed Black-box Attack: Do Not Overestimate Black-box Attacks [4.764637544913963]
ブラックボックスの敵攻撃は、モデル構造や重みへのアクセスを必要とせずに、画像分類器を誤分類する可能性がある。
最近の研究によると、攻撃の成功率は95%以上で、クエリは1000未満である。
本稿では,ローカルモデルではなく,クラウドAPIに直接ブラックボックス攻撃を適用する。
論文 参考訳(メタデータ) (2022-10-28T19:14:03Z) - Practical No-box Adversarial Attacks with Training-free Hybrid Image
Transformation [123.33816363589506]
ノンボックス脅威モデルの下では, テキストbftraining-free adversarial perturbationの存在を示す。
低レベルの特徴を持つ高周波成分 (HFC) ドメインは, 主に周波数成分の操作によって画像を攻撃する。
我々の手法は、主流の転送ベースのブラックボックス攻撃と競合する。
論文 参考訳(メタデータ) (2022-03-09T09:51:00Z) - QAIR: Practical Query-efficient Black-Box Attacks for Image Retrieval [56.51916317628536]
画像検索に対するクエリベースの攻撃について検討し,ブラックボックス設定下での対比例に対する堅牢性を評価する。
新たな関連性に基づく損失は、攻撃前後のトップk検索結果のセット類似度を測定して攻撃効果を定量化するように設計されている。
提案手法は,ブラックボックス設定による画像検索システムに対するクエリ数が少なく,高い攻撃成功率を達成できることを示す実験である。
論文 参考訳(メタデータ) (2021-03-04T10:18:43Z) - PICA: A Pixel Correlation-based Attentional Black-box Adversarial Attack [37.15301296824337]
PICAと呼ばれる画素相関に基づく注目ブラックボックス対向攻撃を提案する。
PICAは、既存のブラックボックス攻撃と比較して高解像度の逆例を生成するのが効率的である。
論文 参考訳(メタデータ) (2021-01-19T09:53:52Z) - Local Black-box Adversarial Attacks: A Query Efficient Approach [64.98246858117476]
アドリアックは、セキュリティに敏感なシナリオにおけるディープニューラルネットワークの適用を脅かしている。
ブラックボックス攻撃における限られたクエリ内でのみクリーンな例の識別領域を摂動させる新しいフレームワークを提案する。
攻撃成功率の高いブラックボックス摂動時のクエリ効率を大幅に改善できることを示すため,広範な実験を行った。
論文 参考訳(メタデータ) (2021-01-04T15:32:16Z) - Improving Query Efficiency of Black-box Adversarial Attack [75.71530208862319]
ニューラルプロセスに基づくブラックボックス対逆攻撃(NP-Attack)を提案する。
NP-Attackはブラックボックス設定でクエリ数を大幅に削減できる。
論文 参考訳(メタデータ) (2020-09-24T06:22:56Z) - Simple and Efficient Hard Label Black-box Adversarial Attacks in Low
Query Budget Regimes [80.9350052404617]
そこで我々は,ブラックボックス攻撃の簡易かつ効率的なベイズ最適化(BO)に基づく手法を提案する。
高次元におけるBOの性能に関する問題は、構造化された低次元部分空間における逆例を探すことによって回避される。
提案手法は,10倍から20倍のクエリを必要としながら,攻撃成功率を2倍から10倍に向上させる。
論文 参考訳(メタデータ) (2020-07-13T04:34:57Z) - Ensemble Generative Cleaning with Feedback Loops for Defending
Adversarial Attacks [29.36327697150732]
深層ニューラルネットワークを効果的に防御するためのフィードバックループ(EGC-FL)を用いたアンサンブル生成クリーニング法を開発した。
実験の結果,白箱攻撃と黒箱攻撃の双方において,最先端の手法が大きなマージンで改善されることが示されている。
論文 参考訳(メタデータ) (2020-04-23T16:01:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。