論文の概要: ES Attack: Model Stealing against Deep Neural Networks without Data
Hurdles
- arxiv url: http://arxiv.org/abs/2009.09560v2
- Date: Tue, 25 Jan 2022 20:36:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-16 05:36:45.053185
- Title: ES Attack: Model Stealing against Deep Neural Networks without Data
Hurdles
- Title(参考訳): ES攻撃:データハードルのないディープニューラルネットワークに対するモデルステアリング
- Authors: Xiaoyong Yuan, Leah Ding, Lan Zhang, Xiaolin Li, Dapeng Wu
- Abstract要約: 我々は,データハードルを伴わずに攻撃を盗む新しいモデルであるESアタックを提案する。
ESアタックは反復的に代用モデルを訓練し、最終的には被害者の機能的に等価なコピーを達成します。
- 参考スコア(独自算出の注目度): 14.742297815938608
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) have become the essential components for various
commercialized machine learning services, such as Machine Learning as a Service
(MLaaS). Recent studies show that machine learning services face severe privacy
threats - well-trained DNNs owned by MLaaS providers can be stolen through
public APIs, namely model stealing attacks. However, most existing works
undervalued the impact of such attacks, where a successful attack has to
acquire confidential training data or auxiliary data regarding the victim DNN.
In this paper, we propose ES Attack, a novel model stealing attack without any
data hurdles. By using heuristically generated synthetic data, ES Attack
iteratively trains a substitute model and eventually achieves a functionally
equivalent copy of the victim DNN. The experimental results reveal the severity
of ES Attack: i) ES Attack successfully steals the victim model without data
hurdles, and ES Attack even outperforms most existing model stealing attacks
using auxiliary data in terms of model accuracy; ii) most countermeasures are
ineffective in defending ES Attack; iii) ES Attack facilitates further attacks
relying on the stolen model.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、MLaaS(Machine Learning as a Service)など、さまざまな商用機械学習サービスにとって不可欠なコンポーネントとなっている。
MLaaSプロバイダが所有するよく訓練されたDNNは、パブリックAPI、すなわちモデル盗難攻撃を通じて盗まれる可能性がある。
しかし、既存の作品の多くはそのような攻撃の影響を過小評価しており、攻撃が成功した場合、被害者のdnnに関する秘密の訓練データや補助データを取得する必要がある。
本稿では,データハードルを伴わずに攻撃を盗む新しいモデルであるESアタックを提案する。
ヒューリスティックに生成された合成データを使用することで、ESアタックは置換モデルを反復的に訓練し、最終的に被害者のDNNの機能的に等価なコピーを実現する。
実験結果からESアタックの重症度が明らかになった。
i) es攻撃は,データハードルなしで被害者モデルを盗み出すことができ,es攻撃は,モデルの精度の観点から補助データを用いて,既存のモデル盗み攻撃のほとんどを上回っています。
二 ほとんどの対策は、ESアタックの防衛に効果がない。
三 ESアタックは、盗品モデルによる更なる攻撃を促進する。
関連論文リスト
- A Practical Trigger-Free Backdoor Attack on Neural Networks [33.426207982772226]
トレーニングデータへのアクセスを必要としないトリガーフリーのバックドア攻撃を提案する。
具体的には、悪意のあるデータの概念を攻撃者特定クラスの概念に組み込んだ、新しい微調整アプローチを設計する。
提案した攻撃の有効性,実用性,ステルスネスを実世界の3つのデータセットで評価した。
論文 参考訳(メタデータ) (2024-08-21T08:53:36Z) - Hijacking Attacks against Neural Networks by Analyzing Training Data [21.277867143827812]
CleanSheetは、新しいモデルハイジャック攻撃で、モデルをトレーニングする相手を必要とせずに、バックドア攻撃のハイパフォーマンスを得る。
CleanSheetはトレーニングデータから発生したタンパーの脆弱性を利用する。
CIFAR-100では平均的な攻撃成功率(ASR)が97.5%、GTSRBでは92.4%である。
論文 参考訳(メタデータ) (2024-01-18T05:48:56Z) - Model Stealing Attack against Recommender System [85.1927483219819]
いくつかの敵攻撃は、レコメンデーターシステムに対するモデル盗難攻撃を成し遂げた。
本稿では、利用可能なターゲットデータとクエリの量を制限し、対象データとセットされたアイテムを共有する補助データを活用して、モデル盗難攻撃を促進する。
論文 参考訳(メタデータ) (2023-12-18T05:28:02Z) - Fault Injection and Safe-Error Attack for Extraction of Embedded Neural Network Models [1.2499537119440245]
モノのインターネット(IoT)における32ビットマイクロコントローラの組み込みディープニューラルネットワークモデルに焦点をあてる。
攻撃を成功させるためのブラックボックス手法を提案する。
古典的畳み込みニューラルネットワークでは、1500個の入力で最も重要なビットの少なくとも90%を回復することに成功した。
論文 参考訳(メタデータ) (2023-08-31T13:09:33Z) - Isolation and Induction: Training Robust Deep Neural Networks against
Model Stealing Attacks [51.51023951695014]
既存のモデル盗難防衛は、被害者の後部確率に偽りの摂動を加え、攻撃者を誤解させる。
本稿では,モデルステルス防衛のための新規かつ効果的なトレーニングフレームワークである分離誘導(InI)を提案する。
モデルの精度を損なうモデル予測に摂動を加えるのとは対照的に、我々はモデルを訓練して、盗むクエリに対して非形式的なアウトプットを生成する。
論文 参考訳(メタデータ) (2023-08-02T05:54:01Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - Adversarial Transfer Attacks With Unknown Data and Class Overlap [19.901933940805684]
現在の移動攻撃の研究は、攻撃者にとって非現実的な優位性を持っている。
攻撃者および被害者が不完全な設定で利用可能なデータに着目した敵攻撃の転送に関する最初の研究について述べる。
この脅威モデルは、医学、マルウェアなどの応用に関係している。
論文 参考訳(メタデータ) (2021-09-23T03:41:34Z) - Learning to Attack: Towards Textual Adversarial Attacking in Real-world
Situations [81.82518920087175]
敵攻撃は、敵の例でディープニューラルネットワークを騙すことを目的としている。
本稿では、攻撃履歴から学習し、より効率的に攻撃を開始することができる強化学習に基づく攻撃モデルを提案する。
論文 参考訳(メタデータ) (2020-09-19T09:12:24Z) - Defense for Black-box Attacks on Anti-spoofing Models by Self-Supervised
Learning [71.17774313301753]
本研究では,自己指導型高水準表現の堅牢性について,敵攻撃に対する防御に利用して検討する。
ASVspoof 2019データセットの実験結果は、Mockingjayによって抽出されたハイレベルな表現が、敵の例の転送可能性を妨げることを示した。
論文 参考訳(メタデータ) (2020-06-05T03:03:06Z) - Adversarial Imitation Attack [63.76805962712481]
現実的な敵攻撃は、攻撃されたモデルの知識をできるだけ少なくする必要がある。
現在の代替攻撃では、敵の例を生成するために事前訓練されたモデルが必要である。
本研究では,新たな敵模倣攻撃を提案する。
論文 参考訳(メタデータ) (2020-03-28T10:02:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。