論文の概要: CaBaGe: Data-Free Model Extraction using ClAss BAlanced Generator Ensemble
- arxiv url: http://arxiv.org/abs/2409.10643v1
- Date: Mon, 16 Sep 2024 18:19:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-18 19:00:49.867396
- Title: CaBaGe: Data-Free Model Extraction using ClAss BAlanced Generator Ensemble
- Title(参考訳): CaBaGe: ClAss BAlanced Generator Ensemble を用いたデータフリーモデル抽出
- Authors: Jonathan Rosenthal, Shanchao Liang, Kevin Zhang, Lin Tan,
- Abstract要約: 少数のクエリで高いモデル抽出精度を実現するために,データフリーモデル抽出手法であるCaBaGeを提案する。
評価の結果,CaBaGeは7つのデータセット上で既存の手法よりも優れていた。
- 参考スコア(独自算出の注目度): 4.029642441688877
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine Learning as a Service (MLaaS) is often provided as a pay-per-query, black-box system to clients. Such a black-box approach not only hinders open replication, validation, and interpretation of model results, but also makes it harder for white-hat researchers to identify vulnerabilities in the MLaaS systems. Model extraction is a promising technique to address these challenges by reverse-engineering black-box models. Since training data is typically unavailable for MLaaS models, this paper focuses on the realistic version of it: data-free model extraction. We propose a data-free model extraction approach, CaBaGe, to achieve higher model extraction accuracy with a small number of queries. Our innovations include (1) a novel experience replay for focusing on difficult training samples; (2) an ensemble of generators for steadily producing diverse synthetic data; and (3) a selective filtering process for querying the victim model with harder, more balanced samples. In addition, we create a more realistic setting, for the first time, where the attacker has no knowledge of the number of classes in the victim training data, and create a solution to learn the number of classes on the fly. Our evaluation shows that CaBaGe outperforms existing techniques on seven datasets -- MNIST, FMNIST, SVHN, CIFAR-10, CIFAR-100, ImageNet-subset, and Tiny ImageNet -- with an accuracy improvement of the extracted models by up to 43.13%. Furthermore, the number of queries required to extract a clone model matching the final accuracy of prior work is reduced by up to 75.7%.
- Abstract(参考訳): マシンラーニング・アズ・ア・サービス(MLaaS)は、クライアントに対するペイ・パー・クエリ、ブラックボックスシステムとして提供されることが多い。
このようなブラックボックスアプローチは、オープンレプリケーション、バリデーション、モデル結果の解釈を妨げるだけでなく、ホワイトハット研究者がMLaaSシステムの脆弱性を特定するのを難しくする。
モデル抽出はブラックボックスモデルのリバースエンジニアリングによってこれらの課題に対処する上で有望な手法である。
トレーニングデータは通常MLaaSモデルでは利用できないため、本論文では、その現実的なバージョンであるデータフリーモデル抽出に焦点を当てる。
少数のクエリで高いモデル抽出精度を実現するために,データフリーモデル抽出手法であるCaBaGeを提案する。
本研究の革新は,(1)困難なトレーニングサンプルに焦点を合わせるための新しい体験リプレイ,(2)多様な合成データを着実に生成するジェネレータのアンサンブル,(3)より硬くバランスの取れたサンプルで被害者モデルをクエリする選択的なフィルタリングプロセスである。
さらに、攻撃者が被害者のトレーニングデータ中のクラス数について知識を持っていない、より現実的な設定を作成し、オンザフライでクラス数を学ぶためのソリューションを作成します。
評価の結果、CaBaGeはMNIST, FMNIST, SVHN, CIFAR-10, CIFAR-100, ImageNet-subset, Tiny ImageNetという7つのデータセットで既存の手法より優れており、抽出したモデルの精度は最大43.13%向上した。
さらに、前の作業の最終精度に適合するクローンモデルを抽出するために必要なクエリの数を75.7%まで削減する。
関連論文リスト
- Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - Forewarned is Forearmed: Leveraging LLMs for Data Synthesis through Failure-Inducing Exploration [90.41908331897639]
大規模言語モデル(LLM)は、多種多様な高品質なタスク特化データのトレーニングの恩恵を受けている。
本稿では,効果的なトレーニングサンプルを自動生成する新しい手法であるReverseGenを提案する。
論文 参考訳(メタデータ) (2024-10-22T06:43:28Z) - Unlearn and Burn: Adversarial Machine Unlearning Requests Destroy Model Accuracy [65.80757820884476]
未学習システムのデプロイにおいて、重要で未調査の脆弱性を公開しています。
本稿では,訓練セットに存在しないデータに対して,逆学習要求を送信することにより,攻撃者がモデル精度を劣化させることができる脅威モデルを提案する。
我々は、未学習要求の正当性を検出するための様々な検証メカニズムを評価し、検証の課題を明らかにする。
論文 参考訳(メタデータ) (2024-10-12T16:47:04Z) - MisGUIDE : Defense Against Data-Free Deep Learning Model Extraction [0.8437187555622164]
MisGUIDE(ミスGUIDE)は、ディープラーニングモデルのための2段階の防御フレームワークである。
提案手法の目的は,真正クエリの精度を維持しつつ,クローンモデルの精度を下げることである。
論文 参考訳(メタデータ) (2024-03-27T13:59:21Z) - Zero-shot Retrieval: Augmenting Pre-trained Models with Search Engines [83.65380507372483]
大規模で事前訓練されたモデルは、問題を解決するのに必要なタスク固有のデータの量を劇的に削減するが、多くの場合、ドメイン固有のニュアンスを箱から取り出すのに失敗する。
本稿では,NLPとマルチモーダル学習の最近の進歩を活用して,検索エンジン検索による事前学習モデルを強化する方法について述べる。
論文 参考訳(メタデータ) (2023-11-29T05:33:28Z) - Army of Thieves: Enhancing Black-Box Model Extraction via Ensemble based
sample selection [10.513955887214497]
Model Stealing Attacks (MSA)では、ラベル付きデータセットを構築するために、機械学習モデルを繰り返しクエリされる。
本研究では,泥棒モデルとして深層学習モデルのアンサンブルの利用について検討する。
CIFAR-10データセットでトレーニングしたモデルに対して,従来よりも21%高い逆サンプル転送性を実現する。
論文 参考訳(メタデータ) (2023-11-08T10:31:29Z) - Data-Free Model Extraction Attacks in the Context of Object Detection [0.6719751155411076]
多くの機械学習モデルは、モデル抽出攻撃に対して脆弱である。
本研究では,オブジェクト検出における境界ボックス座標の予測のための回帰問題に拡張した逆ブラックボックス攻撃を提案する。
提案したモデル抽出法は,妥当なクエリを用いて有意な結果が得られることがわかった。
論文 参考訳(メタデータ) (2023-08-09T06:23:54Z) - Zero-Shot Machine Unlearning [6.884272840652062]
現代のプライバシー規制は、市民に製品、サービス、企業によって忘れられる権利を与える。
トレーニングプロセスやトレーニングサンプルに関連するデータは、未学習の目的のためにアクセスできない。
本稿では, (a) 誤り最小化雑音と (b) ゲート付き知識伝達に基づくゼロショットマシンアンラーニングのための2つの新しい解を提案する。
論文 参考訳(メタデータ) (2022-01-14T19:16:09Z) - SSSE: Efficiently Erasing Samples from Trained Machine Learning Models [103.43466657962242]
サンプル消去のための効率的かつ効率的なアルゴリズムSSSEを提案する。
ある場合、SSSEは、許可されたデータだけで新しいモデルをスクラッチからトレーニングする最適な、しかし実用的でない金の標準と同様に、サンプルをほぼ消去することができる。
論文 参考訳(メタデータ) (2021-07-08T14:17:24Z) - Contrastive Model Inversion for Data-Free Knowledge Distillation [60.08025054715192]
そこで、データ多様性を最適化可能な目的として明示的にモデル化するContrastive Model Inversionを提案します。
我々の主な観察では、同じ量のデータの制約の下では、高いデータの多様性は、通常より強いインスタンス識別を示す。
CIFAR-10, CIFAR-100, Tiny-ImageNetを用いた実験により, 生成したデータを知識蒸留に使用する場合, CMIは極めて優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2021-05-18T15:13:00Z) - Data-Free Model Extraction [16.007030173299984]
現在のモデル抽出攻撃は、敵が被害者モデルを訓練するために使用するプロプライエタリなデータに類似した特徴を持つ代理データセットにアクセスすることを前提としている。
本稿では,代用データセットを必要としないデータフリーモデル抽出手法を提案する。
提案したデータフリーモデル抽出手法は,問合せの難易度の高い高精度化を実現する。
論文 参考訳(メタデータ) (2020-11-30T13:37:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。