論文の概要: Copycat CNN: Are Random Non-Labeled Data Enough to Steal Knowledge from
Black-box Models?
- arxiv url: http://arxiv.org/abs/2101.08717v1
- Date: Thu, 21 Jan 2021 16:55:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-21 07:59:33.025626
- Title: Copycat CNN: Are Random Non-Labeled Data Enough to Steal Knowledge from
Black-box Models?
- Title(参考訳): Copycat CNN: ランダムな非ラベルデータはブラックボックスモデルからのステルス知識に十分か?
- Authors: Jacson Rodrigues Correia-Silva, Rodrigo F. Berriel, Claudine Badue,
Alberto F. De Souza, Thiago Oliveira-Santos
- Abstract要約: 自然無作為な画像をクエリしてブラックボックスモデルをコピーする,シンプルでパワフルな手法を提案する。
その結果、自然ランダム画像は複数の問題に対してコピーキャットを生成するのに有効であることがわかった。
- 参考スコア(独自算出の注目度): 6.147656956482848
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Convolutional neural networks have been successful lately enabling companies
to develop neural-based products, which demand an expensive process, involving
data acquisition and annotation; and model generation, usually requiring
experts. With all these costs, companies are concerned about the security of
their models against copies and deliver them as black-boxes accessed by APIs.
Nonetheless, we argue that even black-box models still have some
vulnerabilities. In a preliminary work, we presented a simple, yet powerful,
method to copy black-box models by querying them with natural random images. In
this work, we consolidate and extend the copycat method: (i) some constraints
are waived; (ii) an extensive evaluation with several problems is performed;
(iii) models are copied between different architectures; and, (iv) a deeper
analysis is performed by looking at the copycat behavior. Results show that
natural random images are effective to generate copycats for several problems.
- Abstract(参考訳): 畳み込みニューラルネットワークは、企業がデータ取得とアノテーションを含む高価なプロセスを必要とするニューラルネットワーク製品を開発することを可能にするために、最近成功している。
これらのコストで、企業はモデルのコピーに対するセキュリティを心配し、APIによってアクセスされるブラックボックスとして提供します。
それでも、ブラックボックスモデルでさえいくつかの脆弱性があると主張する。
予備研究として,自然ランダム画像で検索することでブラックボックスモデルをコピーする,シンプルかつパワフルな手法を提案する。
本研究は,コピーキャット法を統合し,拡張する: (i) いくつかの制約を放棄し, (ii) 問題のある広範囲な評価を行い, (iii) モデルが異なるアーキテクチャ間でコピーされ, (iv) コピーキャットの挙動を見てより深い解析を行う。
その結果、自然ランダム画像は複数の問題に対してコピーキャットを生成するのに有効であることがわかった。
関連論文リスト
- Stealing Image-to-Image Translation Models With a Single Query [24.819964498441635]
画像と画像のモデルを盗む可能性について検討する。
このようなモデルの多くは、1つの小さなクエリイメージで盗むことができる。
注目すべきは、攻撃を盗む脆弱性は、CNNや注意機構を持つモデルによって共有されていることだ。
論文 参考訳(メタデータ) (2024-06-02T18:30:41Z) - Towards Few-Call Model Stealing via Active Self-Paced Knowledge
Distillation and Diffusion-Based Image Generation [33.60710287553274]
そこで本研究では,ブラックボックスの分類モデルを,トレーニングデータやアーキテクチャ,重みなどにアクセスせずにコピーすることを提案する。
蒸留時にプロキシデータを最大限に活用するために,新たなアクティブなセルフペース学習フレームワークを採用している。
2つのデータセットに対する実験結果から,マルチコールモデル抽出シナリオにおける2つの最先端手法に対するフレームワークの優位性が確認された。
論文 参考訳(メタデータ) (2023-09-29T19:09:27Z) - DIAGNOSIS: Detecting Unauthorized Data Usages in Text-to-image Diffusion Models [79.71665540122498]
保護されたデータセットにインジェクトされたコンテンツを配置することで、不正なデータ利用を検出する手法を提案する。
具体的には、ステルス画像ワープ機能を用いて、これらの画像にユニークな内容を追加することにより、保護された画像を修正する。
このモデルが注入されたコンテンツを記憶したかどうかを解析することにより、不正に不正に使用したモデルを検出することができる。
論文 参考訳(メタデータ) (2023-07-06T16:27:39Z) - Are You Stealing My Model? Sample Correlation for Fingerprinting Deep
Neural Networks [86.55317144826179]
従来の方法は、常にモデル指紋として転送可能な敵の例を利用する。
本稿では,SAmple correlation (SAC) に基づく新しいモデル盗難検出手法を提案する。
SACは、敵の訓練や移動学習を含む様々なモデル盗難攻撃をうまく防いでいる。
論文 参考訳(メタデータ) (2022-10-21T02:07:50Z) - MOVE: Effective and Harmless Ownership Verification via Embedded
External Features [109.19238806106426]
本稿では,異なる種類のモデル盗難を同時に防ぐために,効果的かつ無害なモデル所有者認証(MOVE)を提案する。
我々は、疑わしいモデルがディフェンダー特定外部特徴の知識を含むかどうかを検証し、所有権検証を行う。
特に、包括的モデル保護を提供するために、ホワイトボックスとブラックボックスの両方の設定でMOVE法を開発した。
論文 参考訳(メタデータ) (2022-08-04T02:22:29Z) - Defending against Model Stealing via Verifying Embedded External
Features [90.29429679125508]
トレーニングサンプルがなく、モデルパラメータや構造にアクセスできない場合でも、敵はデプロイされたモデルを盗むことができる。
我々は、不審なモデルがディフェンダー特定遠近法の特徴の知識を含んでいるかどうかを検証することによって、他の角度からの防御を探索する。
本手法は, 複数段階の盗難処理によって盗難モデルが得られた場合でも, 同時に異なる種類の盗難モデルを検出するのに有効である。
論文 参考訳(メタデータ) (2021-12-07T03:51:54Z) - Black-Box Ripper: Copying black-box models using generative evolutionary
algorithms [29.243901669124515]
ブラックボックスニューラルモデルの機能を複製する作業について検討する。
ブラックボックスモデルによるバックプロパゲーションは不可能であると仮定する。
ブラックボックス(教師)モデルを学生モデルに蒸留できる教師学生フレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-21T17:25:23Z) - Improving Query Efficiency of Black-box Adversarial Attack [75.71530208862319]
ニューラルプロセスに基づくブラックボックス対逆攻撃(NP-Attack)を提案する。
NP-Attackはブラックボックス設定でクエリ数を大幅に削減できる。
論文 参考訳(メタデータ) (2020-09-24T06:22:56Z) - Model Watermarking for Image Processing Networks [120.918532981871]
深層モデルの知的財産権を保護する方法は、非常に重要であるが、真に研究されていない問題である。
画像処理モデルを保護するための最初のモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-25T18:36:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。