論文の概要: Towards Data-Free Model Stealing in a Hard Label Setting
- arxiv url: http://arxiv.org/abs/2204.11022v1
- Date: Sat, 23 Apr 2022 08:44:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-26 15:45:01.938834
- Title: Towards Data-Free Model Stealing in a Hard Label Setting
- Title(参考訳): ハードラベル設定におけるデータフリーモデル盗み
- Authors: Sunandini Sanyal, Sravanti Addepalli, R. Venkatesh Babu
- Abstract要約: トップ1の予測にのみアクセスすることで機械学習モデルを盗むことができることを示す。
本稿では,モデルを盗むために学生とジェネレータをタンデムで訓練する新しいGANベースのフレームワークを提案する。
- 参考スコア(独自算出の注目度): 41.92884427579068
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning models deployed as a service (MLaaS) are susceptible to
model stealing attacks, where an adversary attempts to steal the model within a
restricted access framework. While existing attacks demonstrate near-perfect
clone-model performance using softmax predictions of the classification
network, most of the APIs allow access to only the top-1 labels. In this work,
we show that it is indeed possible to steal Machine Learning models by
accessing only top-1 predictions (Hard Label setting) as well, without access
to model gradients (Black-Box setting) or even the training dataset (Data-Free
setting) within a low query budget. We propose a novel GAN-based framework that
trains the student and generator in tandem to steal the model effectively while
overcoming the challenge of the hard label setting by utilizing gradients of
the clone network as a proxy to the victim's gradients. We propose to overcome
the large query costs associated with a typical Data-Free setting by utilizing
publicly available (potentially unrelated) datasets as a weak image prior. We
additionally show that even in the absence of such data, it is possible to
achieve state-of-the-art results within a low query budget using synthetically
crafted samples. We are the first to demonstrate the scalability of Model
Stealing in a restricted access setting on a 100 class dataset as well.
- Abstract(参考訳): サービスとしてデプロイされるマシンラーニングモデル(MLaaS)は、制限されたアクセスフレームワーク内でモデルを盗もうとする、ステルス攻撃のモデルに影響を受けやすい。
既存の攻撃は分類ネットワークのsoftmax予測を使用してほぼ完全なクローンモデルのパフォーマンスを示すが、ほとんどのapiはtop-1ラベルのみにアクセスできる。
本稿では,モデル勾配(ブラックボックス設定)やトレーニングデータセット(データフリー設定)を低クエリ予算でアクセスすることなく,top-1予測(ハードラベル設定)のみにアクセスして,マシンラーニングモデルを盗むことが可能であることを実証する。
本稿では,クローンネットワークの勾配を被害者の勾配の代用として利用することで,ハードラベル設定の課題を克服しつつ,学生とジェネレータのタンデムによるモデル盗みを効果的に訓練する新しいGANベースのフレームワークを提案する。
本稿では,公開可能な(潜在的に無関係な)データセットを先行画像として活用することにより,一般的なデータフリー設定に関連する膨大なクエリコストを克服することを提案する。
また,このようなデータがない場合でも,合成したサンプルを用いて,低照会予算で最新の結果が得られることを示す。
私たちは、100クラスのデータセット上で制限されたアクセス設定でモデル盗みのスケーラビリティを示す最初の例です。
関連論文リスト
- Data-Free Hard-Label Robustness Stealing Attack [67.41281050467889]
本稿では,Data-Free Hard-Label Robustness Stealing(DFHL-RS)攻撃について紹介する。
ターゲットモデルのハードラベルをクエリするだけで、モデル精度とロバスト性の両方を盗むことができる。
本手法は,AutoAttackに対して77.86%,頑健な39.51%の精度を実現する。
論文 参考訳(メタデータ) (2023-12-10T16:14:02Z) - Army of Thieves: Enhancing Black-Box Model Extraction via Ensemble based
sample selection [10.513955887214497]
Model Stealing Attacks (MSA)では、ラベル付きデータセットを構築するために、機械学習モデルを繰り返しクエリされる。
本研究では,泥棒モデルとして深層学習モデルのアンサンブルの利用について検討する。
CIFAR-10データセットでトレーニングしたモデルに対して,従来よりも21%高い逆サンプル転送性を実現する。
論文 参考訳(メタデータ) (2023-11-08T10:31:29Z) - Beyond Labeling Oracles: What does it mean to steal ML models? [52.63413852460003]
モデル抽出攻撃は、クエリアクセスのみで訓練されたモデルを盗むように設計されている。
モデル抽出攻撃の成功に影響を及ぼす要因について検討する。
我々は,ME攻撃の敵の目標を再定義するようコミュニティに促した。
論文 参考訳(メタデータ) (2023-10-03T11:10:21Z) - Towards Few-Call Model Stealing via Active Self-Paced Knowledge
Distillation and Diffusion-Based Image Generation [33.60710287553274]
そこで本研究では,ブラックボックスの分類モデルを,トレーニングデータやアーキテクチャ,重みなどにアクセスせずにコピーすることを提案する。
蒸留時にプロキシデータを最大限に活用するために,新たなアクティブなセルフペース学習フレームワークを採用している。
2つのデータセットに対する実験結果から,マルチコールモデル抽出シナリオにおける2つの最先端手法に対するフレームワークの優位性が確認された。
論文 参考訳(メタデータ) (2023-09-29T19:09:27Z) - Label-Retrieval-Augmented Diffusion Models for Learning from Noisy
Labels [61.97359362447732]
ノイズの多いラベルからの学習は、実際のアプリケーションのための機械学習において、重要かつ長年にわたる問題である。
本稿では,生成モデルの観点からラベルノイズ問題を再構成する。
我々のモデルは、標準的な実世界のベンチマークデータセットで新しいSOTA(State-of-the-art)結果を達成する。
論文 参考訳(メタデータ) (2023-05-31T03:01:36Z) - Unlearnable Clusters: Towards Label-agnostic Unlearnable Examples [128.25509832644025]
インターネット上の視覚的プライバシー漏洩に対して、未学習の例(UE)を開発することへの関心が高まっている。
UEは、目に見えないが学習不可能なノイズを付加したトレーニングサンプルであり、機械学習モデルの不正なトレーニングを防ぐことができる。
本稿では,無学習クラスタ (UC) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-12-31T04:26:25Z) - Label-Only Model Inversion Attacks via Boundary Repulsion [12.374249336222906]
対象モデルの予測ラベルのみを用いて,プライベートトレーニングデータを逆転するアルゴリズムを提案する。
顔認識の例を用いて、BREP-MIで再構成した画像は、プライベートトレーニングデータのセマンティクスを再現することに成功した。
論文 参考訳(メタデータ) (2022-03-03T18:57:57Z) - RamBoAttack: A Robust Query Efficient Deep Neural Network Decision
Exploit [9.93052896330371]
本研究では,局所的な最小値の侵入を回避し,ノイズ勾配からのミスダイレクトを回避できる,堅牢なクエリ効率の高い攻撃法を開発した。
RamBoAttackは、敵クラスとターゲットクラスで利用可能な異なるサンプルインプットに対して、より堅牢である。
論文 参考訳(メタデータ) (2021-12-10T01:25:24Z) - Black-Box Dissector: Towards Erasing-based Hard-Label Model Stealing
Attack [90.6076825117532]
モデル盗み攻撃は、被害者のターゲットモデルの能力を盗む代替モデルを作ることを目的としている。
既存の手法のほとんどは、最も現実的なシナリオでは利用できない被害者モデルからの完全な確率出力に依存する。
被害者モデルからハードラベルに隠された情報をマイニングするためのCAM駆動の消去戦略を含む,Emphblack-box Dissectorと呼ばれる新しいハードラベルモデルステアリング手法を提案する。
論文 参考訳(メタデータ) (2021-05-03T04:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。