論文の概要: Data-Free Model Extraction
- arxiv url: http://arxiv.org/abs/2011.14779v2
- Date: Wed, 31 Mar 2021 16:12:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-06 14:40:53.834996
- Title: Data-Free Model Extraction
- Title(参考訳): データフリーモデル抽出
- Authors: Jean-Baptiste Truong, Pratyush Maini, Robert J. Walls, Nicolas
Papernot
- Abstract要約: 現在のモデル抽出攻撃は、敵が被害者モデルを訓練するために使用するプロプライエタリなデータに類似した特徴を持つ代理データセットにアクセスすることを前提としている。
本稿では,代用データセットを必要としないデータフリーモデル抽出手法を提案する。
提案したデータフリーモデル抽出手法は,問合せの難易度の高い高精度化を実現する。
- 参考スコア(独自算出の注目度): 16.007030173299984
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current model extraction attacks assume that the adversary has access to a
surrogate dataset with characteristics similar to the proprietary data used to
train the victim model. This requirement precludes the use of existing model
extraction techniques on valuable models, such as those trained on rare or hard
to acquire datasets. In contrast, we propose data-free model extraction methods
that do not require a surrogate dataset. Our approach adapts techniques from
the area of data-free knowledge transfer for model extraction. As part of our
study, we identify that the choice of loss is critical to ensuring that the
extracted model is an accurate replica of the victim model. Furthermore, we
address difficulties arising from the adversary's limited access to the victim
model in a black-box setting. For example, we recover the model's logits from
its probability predictions to approximate gradients. We find that the proposed
data-free model extraction approach achieves high-accuracy with reasonable
query complexity -- 0.99x and 0.92x the victim model accuracy on SVHN and
CIFAR-10 datasets given 2M and 20M queries respectively.
- Abstract(参考訳): 現在のモデル抽出攻撃は、敵が被害者モデルのトレーニングに使用されるプロプライエタリなデータに似た特性を持つサロゲートデータセットにアクセスすることを前提としている。
この要件は、データセットの取得を困難にしたり、希少なトレーニングを受けたりといった、既存のモデル抽出テクニックを価値あるモデルに使用することを妨げる。
一方,代用データセットを必要としないデータフリーモデル抽出手法を提案する。
提案手法は,データフリーな知識伝達領域の手法をモデル抽出に適用する。
本研究の一環として,抽出したモデルが被害者モデルの正確なレプリカであることを保証する上で,損失の選択が重要であることを明らかにする。
さらに,ブラックボックス設定で被害者モデルへのアクセスが制限されていることによる問題にも対処する。
例えば、モデルのロジットを確率予測から近似勾配に復元する。
提案手法は, SVHN と CIFAR-10 データセットに対して, それぞれ2M と 20M のクエリに対して, 0.99x と 0.92 の精度で, 精度の高いデータフリーモデル抽出手法を実現する。
関連論文リスト
- Towards a Theoretical Understanding of Memorization in Diffusion Models [76.85077961718875]
拡散確率モデル(DPM)は、生成人工知能(GenAI)の主流モデルとして採用されている。
モデル収束を前提とした条件付きおよび非条件付きDPMにおける記憶の理論的理解を提供する。
本研究では、生成されたデータに基づいて訓練された時間依存型分類器を代理条件として利用し、無条件DPMからトレーニングデータを抽出する、textbfSurrogate condItional Data extract (SIDE) という新しいデータ抽出手法を提案する。
論文 参考訳(メタデータ) (2024-10-03T13:17:06Z) - CaBaGe: Data-Free Model Extraction using ClAss BAlanced Generator Ensemble [4.029642441688877]
少数のクエリで高いモデル抽出精度を実現するために,データフリーモデル抽出手法であるCaBaGeを提案する。
評価の結果,CaBaGeは7つのデータセット上で既存の手法よりも優れていた。
論文 参考訳(メタデータ) (2024-09-16T18:19:19Z) - MisGUIDE : Defense Against Data-Free Deep Learning Model Extraction [0.8437187555622164]
MisGUIDE(ミスGUIDE)は、ディープラーニングモデルのための2段階の防御フレームワークである。
提案手法の目的は,真正クエリの精度を維持しつつ,クローンモデルの精度を下げることである。
論文 参考訳(メタデータ) (2024-03-27T13:59:21Z) - SCME: A Self-Contrastive Method for Data-free and Query-Limited Model
Extraction Attack [18.998300969035885]
モデル抽出は、代替モデル上で逆例を生成することによって、ターゲットモデルを騙す。
本稿では,偽データの合成におけるクラス間およびクラス内多様性を考慮した,SCME という新しいデータフリーモデル抽出手法を提案する。
論文 参考訳(メタデータ) (2023-10-15T10:41:45Z) - Self-Supervised Dataset Distillation for Transfer Learning [77.4714995131992]
ラベルなしデータセットを、効率的な自己教師付き学習(SSL)のための小さな合成サンプル群に蒸留する新しい問題を提案する。
両レベル最適化におけるSSL目標に対する合成サンプルの勾配は、データ拡張やマスキングから生じるランダム性から、テキストバイアスを受けていることを最初に証明する。
転送学習を含む様々な応用における本手法の有効性を実証的に検証する。
論文 参考訳(メタデータ) (2023-10-10T10:48:52Z) - Beyond Labeling Oracles: What does it mean to steal ML models? [52.63413852460003]
モデル抽出攻撃は、クエリアクセスのみで訓練されたモデルを盗むように設計されている。
モデル抽出攻撃の成功に影響を及ぼす要因について検討する。
我々は,ME攻撃の敵の目標を再定義するようコミュニティに促した。
論文 参考訳(メタデータ) (2023-10-03T11:10:21Z) - Data-Free Model Extraction Attacks in the Context of Object Detection [0.6719751155411076]
多くの機械学習モデルは、モデル抽出攻撃に対して脆弱である。
本研究では,オブジェクト検出における境界ボックス座標の予測のための回帰問題に拡張した逆ブラックボックス攻撃を提案する。
提案したモデル抽出法は,妥当なクエリを用いて有意な結果が得られることがわかった。
論文 参考訳(メタデータ) (2023-08-09T06:23:54Z) - ADT-SSL: Adaptive Dual-Threshold for Semi-Supervised Learning [68.53717108812297]
Semi-Supervised Learning (SSL)は、ラベル付きデータとラベルなしデータを併用してモデルをトレーニングすることで、高度な分類タスクを実現している。
本稿では,半教師付き学習(ADT-SSL)のための適応的デュアル閾値法を提案する。
実験の結果,提案したADT-SSLは最先端の分類精度を実現することがわかった。
論文 参考訳(メタデータ) (2022-05-21T11:52:08Z) - MEGEX: Data-Free Model Extraction Attack against Gradient-Based
Explainable AI [1.693045612956149]
機械学習・アズ・ア・サービス(ML)にデプロイされたディープニューラルネットワークは、モデル抽出攻撃の脅威に直面している。
モデル抽出攻撃は知的財産権とプライバシーを侵害する攻撃であり、敵は予測だけを使用してクラウド内の訓練されたモデルを盗む。
本稿では、勾配に基づく説明可能なAIに対するデータフリーモデル抽出攻撃であるMEGEXを提案する。
論文 参考訳(メタデータ) (2021-07-19T14:25:06Z) - Contrastive Model Inversion for Data-Free Knowledge Distillation [60.08025054715192]
そこで、データ多様性を最適化可能な目的として明示的にモデル化するContrastive Model Inversionを提案します。
我々の主な観察では、同じ量のデータの制約の下では、高いデータの多様性は、通常より強いインスタンス識別を示す。
CIFAR-10, CIFAR-100, Tiny-ImageNetを用いた実験により, 生成したデータを知識蒸留に使用する場合, CMIは極めて優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2021-05-18T15:13:00Z) - Data from Model: Extracting Data from Non-robust and Robust Models [83.60161052867534]
この研究は、データとモデルの関係を明らかにするために、モデルからデータを生成する逆プロセスについて検討する。
本稿では,データ・トゥ・モデル(DtM)とデータ・トゥ・モデル(DfM)を連続的に処理し,特徴マッピング情報の喪失について検討する。
以上の結果から,DtMとDfMの複数シーケンスの後にも,特にロバストモデルにおいて精度低下が制限されることが示唆された。
論文 参考訳(メタデータ) (2020-07-13T05:27:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。