論文の概要: Good Artists Copy, Great Artists Steal: Model Extraction Attacks Against
Image Translation Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2104.12623v1
- Date: Mon, 26 Apr 2021 14:50:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 14:48:46.699409
- Title: Good Artists Copy, Great Artists Steal: Model Extraction Attacks Against
Image Translation Generative Adversarial Networks
- Title(参考訳): 優れたアーティストがコピーし、偉大なアーティストが盗む: 画像翻訳生成広告ネットワークに対するモデル抽出攻撃
- Authors: Sebastian Szyller, Vasisht Duddu, Tommi Gr\"ondahl, N. Asokan
- Abstract要約: 実世界生成逆ネットワーク(gan)画像翻訳モデルに対する最初のモデル抽出攻撃を示す。
敵は$f_v$のアーキテクチャや、その意図した画像翻訳タスク以外の情報を知る必要はない。
画像翻訳の2つのカテゴリの3つの異なる例を用いて,攻撃の有効性を評価する。
- 参考スコア(独自算出の注目度): 12.605607949417031
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning models are typically made available to potential client
users via inference APIs. Model extraction attacks occur when a malicious
client uses information gleaned from queries to the inference API of a victim
model $F_V$ to build a surrogate model $F_A$ that has comparable functionality.
Recent research has shown successful model extraction attacks against image
classification, and NLP models. In this paper, we show the first model
extraction attack against real-world generative adversarial network (GAN) image
translation models. We present a framework for conducting model extraction
attacks against image translation models, and show that the adversary can
successfully extract functional surrogate models. The adversary is not required
to know $F_V$'s architecture or any other information about it beyond its
intended image translation task, and queries $F_V$'s inference interface using
data drawn from the same domain as the training data for $F_V$. We evaluate the
effectiveness of our attacks using three different instances of two popular
categories of image translation: (1) Selfie-to-Anime and (2) Monet-to-Photo
(image style transfer), and (3) Super-Resolution (super resolution). Using
standard performance metrics for GANs, we show that our attacks are effective
in each of the three cases -- the differences between $F_V$ and $F_A$, compared
to the target are in the following ranges: Selfie-to-Anime: FID $13.36-68.66$,
Monet-to-Photo: FID $3.57-4.40$, and Super-Resolution: SSIM: $0.06-0.08$ and
PSNR: $1.43-4.46$. Furthermore, we conducted a large scale (125 participants)
user study on Selfie-to-Anime and Monet-to-Photo to show that human perception
of the images produced by the victim and surrogate models can be considered
equivalent, within an equivalence bound of Cohen's $d=0.3$.
- Abstract(参考訳): マシンラーニングモデルは一般的に、推論APIを通じて、潜在的なクライアントユーザに提供される。
モデル抽出攻撃は、悪意のあるクライアントがクエリから取得した情報を被害者モデルの推論apiに使用して、同等の機能を持つサロゲートモデル$f_a$を構築する時に発生する。
最近の研究では、画像分類とNLPモデルに対するモデル抽出攻撃が成功した。
本稿では,実世界生成逆ネットワーク(gan)画像翻訳モデルに対する最初のモデル抽出攻撃を示す。
本稿では,画像翻訳モデルに対するモデル抽出攻撃を行うためのフレームワークを提案する。
相手は、$F_V$のアーキテクチャや、意図したイメージ変換タスク以外の他の情報を知る必要はなく、$F_V$の推論インターフェースを、トレーニングデータである$F_V$と同じドメインから引き出されたデータを使ってクエリする。
本研究では,(1)セルフィー・ツー・アニム,(2)モネ・ツー・フォト(画像スタイル転送),(3)超解像(スーパーレゾリューション)の3つのカテゴリを用いて,本攻撃の有効性を評価した。
GANの標準的なパフォーマンス指標を用いて、攻撃は3つのケースで有効であることが示される。ターゲットと比較して、F_V$と$F_A$の差は以下の範囲である: Selfie-to-Anime: FID $13.36-68.66$、Monet-to-Photo: FID $3.57-4.40$、Super-Resolution: SSIM: $0.06-0.08$、PSNR: $1.43-4.46$。
さらに,自撮り対アニムとモネ対写真に関する大規模(125名)ユーザ調査を行い,被害者モデルとサロゲートモデルによる画像の人間の知覚を,コーエンの$0.3$の等価性の範囲内で同等視できることを示した。
関連論文リスト
- $\mathbb{X}$-Sample Contrastive Loss: Improving Contrastive Learning with Sample Similarity Graphs [62.565573316667276]
サンプルが他者とどのように関連しているかを符号化する目的を開発する。
クラスやテキストのキャプション記述における類似性に基づいて視覚モデルを訓練する。
我々の目標は、特に低いデータ体制でうまく機能しているようで、CLIPが16.8%、ImageNet Realが18.1%だった。
論文 参考訳(メタデータ) (2024-07-25T15:38:16Z) - SnapFusion: Text-to-Image Diffusion Model on Mobile Devices within Two
Seconds [88.06788636008051]
テキストから画像への拡散モデルは、プロのアーティストや写真家の作品に匹敵する自然言語の記述から素晴らしい画像を作り出すことができる。
これらのモデルは大規模で、複雑なネットワークアーキテクチャと数十のデノベーションイテレーションを持ち、計算コストが高く、実行が遅い。
モバイル端末上でテキストから画像への拡散モデルの実行を2ドル以下でアンロックする汎用的なアプローチを提案する。
論文 参考訳(メタデータ) (2023-06-01T17:59:25Z) - Class-Conditioned Transformation for Enhanced Robust Image Classification [19.738635819545554]
本稿では,Adrial-versa-Trained (AT)モデルを強化する新しいテスト時間脅威モデルを提案する。
コンディショナル・イメージ・トランスフォーメーションとディスタンス・ベース・予測(CODIP)を用いて動作する。
提案手法は,様々なモデル,ATメソッド,データセット,アタックタイプに関する広範な実験を通じて,最先端の成果を実証する。
論文 参考訳(メタデータ) (2023-03-27T17:28:20Z) - Better Diffusion Models Further Improve Adversarial Training [97.44991845907708]
拡散確率モデル (DDPM) によって生成されたデータは, 対人訓練を改善することが認識されている。
本稿では,効率のよい最新の拡散モデルを用いて,肯定的な回答を与える。
我々の逆向きに訓練されたモデルは、生成されたデータのみを使用してRobustBench上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-02-09T13:46:42Z) - Are You Stealing My Model? Sample Correlation for Fingerprinting Deep
Neural Networks [86.55317144826179]
従来の方法は、常にモデル指紋として転送可能な敵の例を利用する。
本稿では,SAmple correlation (SAC) に基づく新しいモデル盗難検出手法を提案する。
SACは、敵の訓練や移動学習を含む様々なモデル盗難攻撃をうまく防いでいる。
論文 参考訳(メタデータ) (2022-10-21T02:07:50Z) - ARIA: Adversarially Robust Image Attribution for Content Provenance [25.217001579437635]
本稿では,不正確な画像帰属を生じさせる有効な逆画像を生成する方法について述べる。
次に,深い視覚的フィンガープリントモデルに対する非知覚的敵対攻撃を防ぐアプローチについて述べる。
結果のモデルは、はるかに堅牢で、不飽和画像でも正確であり、数百万の画像を持つデータベースでも、良好に動作します。
論文 参考訳(メタデータ) (2022-02-25T18:11:45Z) - Defending against Model Stealing via Verifying Embedded External
Features [90.29429679125508]
トレーニングサンプルがなく、モデルパラメータや構造にアクセスできない場合でも、敵はデプロイされたモデルを盗むことができる。
我々は、不審なモデルがディフェンダー特定遠近法の特徴の知識を含んでいるかどうかを検証することによって、他の角度からの防御を探索する。
本手法は, 複数段階の盗難処理によって盗難モデルが得られた場合でも, 同時に異なる種類の盗難モデルを検出するのに有効である。
論文 参考訳(メタデータ) (2021-12-07T03:51:54Z) - Selection of Source Images Heavily Influences the Effectiveness of
Adversarial Attacks [2.6113528145137495]
すべてのソースイメージが敵の例に等しく適合しているわけではないことを示す。
モデル間転送性の成功で最大12.5%の差を持つことができる。
次に、敵対的な例を作成するために使用される画像の堅牢性を評価するための最初のステップの1つを取り上げます。
論文 参考訳(メタデータ) (2021-06-14T02:45:45Z) - Adversarial robustness against multiple $l_p$-threat models at the price
of one and how to quickly fine-tune robust models to another threat model [79.05253587566197]
対向的堅牢性を実現するために, 対向的トレーニング (AT) を単一$l_p$-threatモデルで行うことが広く議論されている。
本稿では,$l_p$-threatモデルの結合に対する対角的ロバスト性を実現するための,シンプルで効率的なトレーニング手法を開発する。
論文 参考訳(メタデータ) (2021-05-26T12:20:47Z) - The Effects of Image Distribution and Task on Adversarial Robustness [4.597864989500202]
モデルの対比堅牢性を測定するために、曲線(AUC)メトリック下の領域への適応を提案する。
我々は、MNIST、CIFAR-10、およびFusionデータセットのモデルにこの逆の堅牢性メトリックを使用した。
論文 参考訳(メタデータ) (2021-02-21T07:15:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。