論文の概要: Stealing Image-to-Image Translation Models With a Single Query
- arxiv url: http://arxiv.org/abs/2406.00828v1
- Date: Sun, 2 Jun 2024 18:30:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-06 03:16:50.547120
- Title: Stealing Image-to-Image Translation Models With a Single Query
- Title(参考訳): 単一クエリによる画像間変換モデルのステアリング
- Authors: Nurit Spingarn-Eliezer, Tomer Michaeli,
- Abstract要約: 画像と画像のモデルを盗む可能性について検討する。
このようなモデルの多くは、1つの小さなクエリイメージで盗むことができる。
注目すべきは、攻撃を盗む脆弱性は、CNNや注意機構を持つモデルによって共有されていることだ。
- 参考スコア(独自算出の注目度): 24.819964498441635
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training deep neural networks requires significant computational resources and large datasets that are often confidential or expensive to collect. As a result, owners tend to protect their models by allowing access only via an API. Many works demonstrated the possibility of stealing such protected models by repeatedly querying the API. However, to date, research has predominantly focused on stealing classification models, for which a very large number of queries has been found necessary. In this paper, we study the possibility of stealing image-to-image models. Surprisingly, we find that many such models can be stolen with as little as a single, small-sized, query image using simple distillation. We study this phenomenon on a wide variety of model architectures, datasets, and tasks, including denoising, deblurring, deraining, super-resolution, and biological image-to-image translation. Remarkably, we find that the vulnerability to stealing attacks is shared by CNNs and by models with attention mechanisms, and that stealing is commonly possible even without knowing the architecture of the target model.
- Abstract(参考訳): ディープニューラルネットワークのトレーニングには、重要な計算リソースと、機密性の高い、あるいは収集に費用がかかる大規模なデータセットが必要である。
その結果、オーナーはAPI経由でのみアクセスできるようにすることでモデルを保護する傾向にある。
多くの研究が、APIを何度も問い合わせることで、そのような保護されたモデルを盗む可能性を実証した。
しかし、これまでは主に分類モデルを盗むことに焦点を当てており、非常に多くのクエリが必要であることが分かってきた。
本稿では,イメージ・ツー・イメージのモデルを盗む可能性について検討する。
驚くべきことに、そのようなモデルの多くは、単純な蒸留を用いて単一の小さなクエリ画像で盗むことができる。
本稿では, この現象を, 様々なモデルアーキテクチャ, データセット, タスクについて検討する。
注目すべきは、攻撃を盗む脆弱性は、CNNや注意機構を持つモデルによって共有されており、ターゲットモデルのアーキテクチャを知らない場合でも、盗むことは一般的に可能であることだ。
関連論文リスト
- Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - Are You Stealing My Model? Sample Correlation for Fingerprinting Deep
Neural Networks [86.55317144826179]
従来の方法は、常にモデル指紋として転送可能な敵の例を利用する。
本稿では,SAmple correlation (SAC) に基づく新しいモデル盗難検出手法を提案する。
SACは、敵の訓練や移動学習を含む様々なモデル盗難攻撃をうまく防いでいる。
論文 参考訳(メタデータ) (2022-10-21T02:07:50Z) - Vision Models Are More Robust And Fair When Pretrained On Uncurated
Images Without Supervision [38.22842778742829]
差別的な自己教師型学習は、インターネット画像の任意のランダムなグループでのトレーニングモデルを可能にする。
データ前処理や事前の仮定なしで、何十億ものランダムなイメージでモデルをトレーニングします。
フェアネス、分布シフト、地理的多様性、微粒化認識、画像コピー検出、および多くの画像分類データセットを含む50以上のベンチマークにおいて、我々のモデル性能を広範囲に研究し、検証した。
論文 参考訳(メタデータ) (2022-02-16T22:26:47Z) - Defending against Model Stealing via Verifying Embedded External
Features [90.29429679125508]
トレーニングサンプルがなく、モデルパラメータや構造にアクセスできない場合でも、敵はデプロイされたモデルを盗むことができる。
我々は、不審なモデルがディフェンダー特定遠近法の特徴の知識を含んでいるかどうかを検証することによって、他の角度からの防御を探索する。
本手法は, 複数段階の盗難処理によって盗難モデルが得られた場合でも, 同時に異なる種類の盗難モデルを検出するのに有効である。
論文 参考訳(メタデータ) (2021-12-07T03:51:54Z) - Deep Model Intellectual Property Protection via Deep Watermarking [122.87871873450014]
ディープニューラルネットワークは深刻なip侵害リスクにさらされている。
ターゲットの深層モデルを考えると、攻撃者がその全情報を知っていれば、微調整で簡単に盗むことができる。
低レベルのコンピュータビジョンや画像処理タスクで訓練されたディープネットワークを保護するための新しいモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-08T18:58:21Z) - Copycat CNN: Are Random Non-Labeled Data Enough to Steal Knowledge from
Black-box Models? [6.147656956482848]
自然無作為な画像をクエリしてブラックボックスモデルをコピーする,シンプルでパワフルな手法を提案する。
その結果、自然ランダム画像は複数の問題に対してコピーキャットを生成するのに有効であることがわかった。
論文 参考訳(メタデータ) (2021-01-21T16:55:14Z) - Counterfactual Generative Networks [59.080843365828756]
画像生成過程を直接監督せずに訓練する独立した因果機構に分解することを提案する。
適切な誘導バイアスを活用することによって、これらのメカニズムは物体の形状、物体の質感、背景を解き放つ。
その結果, 偽画像は, 元の分類タスクにおける性能の低下を伴い, 分散性が向上することが示された。
論文 参考訳(メタデータ) (2021-01-15T10:23:12Z) - Model Watermarking for Image Processing Networks [120.918532981871]
深層モデルの知的財産権を保護する方法は、非常に重要であるが、真に研究されていない問題である。
画像処理モデルを保護するための最初のモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-25T18:36:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。